Streszczenia Oświadczenia Historia

Zagadnienie metod probabilistycznych i statystycznych. Prawdopodobieństwo i statystyka - podstawowe fakty

Szczególnie interesująca jest ilościowa ocena ryzyka biznesowego z wykorzystaniem metod statystyki matematycznej. Główne narzędzia tej metody oceny to:

§ prawdopodobieństwo wystąpienia zmiennej losowej,

§ oczekiwanie matematyczne lub średnia wartość badanej zmiennej losowej,

§ wariancja,

§ odchylenie standardowe (średniokwadratowe),

§ współczynnik zmienności,

§ rozkład prawdopodobieństwa badanej zmiennej losowej.

Aby podjąć decyzję, musisz znać wielkość (stopień) ryzyka, które mierzy się dwoma kryteriami:

1) średnia wartość oczekiwana (oczekiwanie matematyczne),

2) wahania (zmienność) możliwego wyniku.

Średnia oczekiwana wartość jest to średnia ważona zmiennej losowej, która jest powiązana z niepewnością sytuacji:

,

gdzie jest wartością zmiennej losowej.

Średnia wartość oczekiwana mierzy wynik, jakiego średnio oczekujemy.

Wartość średnia jest uogólnioną cechą jakościową i nie pozwala na podjęcie decyzji na korzyść jakiejkolwiek konkretnej wartości zmiennej losowej.

Aby podjąć decyzję, należy zmierzyć wahania wskaźników, czyli określić miarę zmienności możliwego wyniku.

Odchylenie w możliwym wyniku to stopień, w jakim wartość oczekiwana odbiega od wartości średniej.

W tym celu w praktyce stosuje się zwykle dwa ściśle ze sobą powiązane kryteria: „rozproszenie” i „odchylenie standardowe”.

Dyspersja – średnia ważona kwadratów wyników rzeczywistych ze średniej oczekiwanej:

Odchylenie standardowe jest pierwiastkiem kwadratowym wariancji. Jest to wielkość wymiarowa, mierzona w tych samych jednostkach, w jakich mierzy się badaną zmienną losową:

.

Wariancja i odchylenie standardowe stanowią miarę bezwzględnej zmienności. Do analizy zwykle wykorzystuje się współczynnik zmienności.

Współczynnik zmienności reprezentuje stosunek odchylenia standardowego do średniej wartości oczekiwanej, pomnożony przez 100%

Lub .

Na współczynnik zmienności nie mają wpływu wartości bezwzględne badanego wskaźnika.

Korzystając ze współczynnika zmienności, można nawet porównać wahania cech wyrażonych w różnych jednostkach miary. Współczynnik zmienności może wynosić od 0 do 100%. Im wyższy współczynnik, tym większe wahania.


W statystykach gospodarczych ustala się następującą ocenę różnych wartości współczynnika zmienności:

do 10% – wahania słabe, 10 – 25% – umiarkowane, powyżej 25% – wysokie.

W związku z tym im wyższe wahania, tym większe ryzyko.

Przykład. Właściciel małego sklepu na początku każdego dnia kupuje na sprzedaż jakiś łatwo psujący się produkt. Jednostka tego produktu kosztuje 200 UAH. Cena sprzedaży – 300 UAH. na jednostkę. Z obserwacji wiadomo, że zapotrzebowanie na ten produkt w ciągu dnia może wynosić 4, 5, 6 lub 7 jednostek z odpowiadającym im prawdopodobieństwem 0,1; 0,3; 0,5; 0,1. Jeśli produkt nie zostanie sprzedany w ciągu dnia, to na koniec dnia zawsze zostanie kupiony po cenie 150 UAH. na jednostkę. Ile sztuk tego produktu powinien kupić właściciel sklepu na początku dnia?

Rozwiązanie. Zbudujmy macierz zysków dla właściciela sklepu. Obliczmy, jaki zysk uzyska właściciel, jeśli np. kupi 7 sztuk produktu, a w 6 dniu i na koniec dnia sprzeda jedną sztukę. Każda jednostka produktu sprzedana w ciągu dnia daje zysk 100 UAH, a na koniec dnia - stratę 200 - 150 = 50 UAH. Zatem zysk w tym przypadku będzie wynosić:

Obliczenia przeprowadza się analogicznie dla innych kombinacji podaży i popytu.

Oczekiwany zysk oblicza się jako matematyczne oczekiwanie możliwych wartości zysku dla każdego wiersza skonstruowanej macierzy, z uwzględnieniem odpowiadających im prawdopodobieństw. Jak widać, wśród oczekiwanych zysków największy to 525 UAH. Odpowiada zakupowi danego produktu w ilości 6 sztuk.

Aby uzasadnić ostateczną rekomendację zakupu wymaganej liczby jednostek produktu, obliczamy wariancję, odchylenie standardowe i współczynnik zmienności dla każdej możliwej kombinacji podaży i popytu na produkt (każdy wiersz macierzy zysku):

400 0,1 40 16000
400 0,3 120 48000
400 0,5 200 80000
400 0,1 40 16000
1,0 400 160000
350 0,1 35 12250
500 0,3 150 75000
500 0,5 250 125000
500 0,1 50 25000
1,0 485 2372500
300 0,1 30 9000
450 0,3 135 60750
600 0,5 300 180000
600 0,1 60 36000
1,0 525 285750

Jeśli chodzi o właściciela sklepu kupującego 6 sztuk produktu w porównaniu do 5 i 4 sztuk, nie jest to oczywiste, gdyż ryzyko przy zakupie 6 sztuk produktu (19,2%) jest większe niż przy zakupie 5 sztuk (9,3%) i nawet większe niż przy zakupie 4 sztuk (0%).

Dzięki temu mamy pełną informację o przewidywanych zyskach i ryzyku. A właściciel sklepu decyduje, ile sztuk produktu musi kupić każdego ranka, biorąc pod uwagę swoje doświadczenie i apetyt na ryzyko.

Naszym zdaniem właścicielowi sklepu należy polecić zakup 5 sztuk produktu każdego ranka, a jego średni oczekiwany zysk wyniesie 485 UAH. a jeśli porównać to z zakupem 6 sztuk produktu, przy którym średni oczekiwany zysk wynosi 525 UAH, czyli 40 UAH. więcej, ale ryzyko w tym przypadku będzie 2,06 razy większe.

3.5.1. Metoda badań probabilistyczno-statystycznych.

W wielu przypadkach konieczne jest badanie nie tylko procesów deterministycznych, ale także losowych procesów probabilistycznych (statystycznych). Procesy te rozpatrywane są w oparciu o teorię prawdopodobieństwa.

Podstawowym materiałem matematycznym jest zbiór zmiennej losowej x. Przez zbiór rozumie się zbiór jednorodnych zdarzeń. Zbiór zawierający najróżniejsze warianty zjawiska masowego nazywany jest populacją ogólną lub duża próbka N. Zwykle badana jest tylko część populacji, tzw populacja wybieralna lub mała próba.

Prawdopodobieństwo P(x) wydarzenia X zwany stosunkiem liczby przypadków N(x), co prowadzi do zaistnienia zdarzenia X do całkowitej liczby możliwych przypadków N:

P(x)=N(x)/N.

Teoria prawdopodobieństwa bada teoretyczne rozkłady zmiennych losowych i ich charakterystykę.

Statystyka matematyczna zajmuje się sposobami przetwarzania i analizowania zdarzeń empirycznych.

Te dwie powiązane ze sobą nauki stanowią jednolitą teorię matematyczną procesów losowych mas, szeroko stosowaną w analizie badań naukowych.

Metody rachunku prawdopodobieństwa i statystyki matematycznej są bardzo często stosowane w teorii niezawodności, przeżywalności i bezpieczeństwa, która jest szeroko stosowana w różnych gałęziach nauki i techniki.

3.5.2. Metoda modelowania statystycznego lub badania statystycznego (metoda Monte Carlo).

Metoda ta jest numeryczną metodą rozwiązywania złożonych problemów i opiera się na wykorzystaniu liczb losowych modelujących procesy probabilistyczne. Wyniki rozwiązania tej metody pozwalają na empiryczne ustalenie zależności badanych procesów.

Rozwiązywanie problemów metodą Monte Carlo jest skuteczne tylko przy użyciu szybkich komputerów. Aby rozwiązywać problemy metodą Monte Carlo trzeba mieć szereg statystyczny, znać prawo jego rozkładu, wartość średnią i oczekiwanie matematyczne t(x), odchylenie standardowe.

Stosując tę ​​metodę można uzyskać dowolnie określoną dokładność rozwiązania tj.

-> t(x)

3.5.3. Metoda analizy systemu.

Analiza systemowa rozumiana jest jako zbiór technik i metod badania złożonych systemów, które stanowią złożony zbiór oddziałujących ze sobą elementów. Współdziałanie elementów systemu charakteryzuje się połączeniami bezpośrednimi i sprzężonymi.

Istotą analizy systemu jest identyfikacja tych powiązań i ustalenie ich wpływu na zachowanie całego systemu jako całości. Najbardziej kompletną i dogłębną analizę systemów można przeprowadzić metodami cybernetyki, czyli nauki o złożonych systemach dynamicznych, zdolnych do postrzegania, przechowywania i przetwarzania informacji w celach optymalizacyjnych i kontrolnych.

Analiza systemu składa się z czterech etapów.

Pierwszym etapem jest sformułowanie problemu: określa się przedmiot, cele i zadania badania, a także kryteria badania obiektu i zarządzania nim.

W drugim etapie wyznaczane są granice badanego systemu oraz określana jest jego struktura. Wszystkie obiekty i procesy związane z celem są podzielone na dwie klasy - sam badany system i środowisko zewnętrzne. Wyróżnić Zamknięte I Otwarte systemy. Badając systemy zamknięte, pomija się wpływ środowiska zewnętrznego na ich zachowanie. Następnie identyfikowane są poszczególne komponenty systemu – jego elementy i ustalana jest interakcja pomiędzy nimi a otoczeniem zewnętrznym.

Trzeci etap analizy systemu polega na stworzeniu modelu matematycznego badanego systemu. W pierwszej kolejności dokonuje się parametryzacji systemu, za pomocą określonych parametrów opisuje się główne elementy systemu i elementarne oddziaływania na niego. Jednocześnie wyróżnia się parametry charakteryzujące procesy ciągłe i dyskretne, deterministyczne i probabilistyczne. W zależności od charakterystyki procesów stosuje się jeden lub drugi aparat matematyczny.

W wyniku trzeciego etapu analizy systemu powstają kompletne modele matematyczne systemu, opisane językiem formalnym, np. algorytmicznym.

W czwartym etapie analizowany jest powstały model matematyczny, znajdowane są jego ekstremalne warunki w celu optymalizacji procesów i systemów sterowania oraz formułowania wniosków. Optymalizację ocenia się według kryterium optymalizacji, które w tym przypadku przyjmuje wartości ekstremalne (minimum, maksimum, minimax).

Zwykle wybiera się jedno kryterium, a dla innych ustawia się maksymalne dopuszczalne wartości progowe. Czasami stosuje się kryteria mieszane, które są funkcją parametrów podstawowych.

Na podstawie wybranego kryterium optymalizacji sporządzana jest zależność kryterium optymalizacji od parametrów modelu badanego obiektu (procesu).

Znane są różne matematyczne metody optymalizacji badanych modeli: metody programowania liniowego, nieliniowego lub dynamicznego; metody probabilistyczno-statystyczne oparte na teorii kolejkowania; teoria gier, która traktuje rozwój procesów jako sytuacje losowe.

Pytania do samokontroli wiedzy

Metodologia badań teoretycznych.

Główne sekcje teoretycznego etapu rozwoju badań naukowych.

Rodzaje modeli i rodzaje modelowania obiektu badawczego.

Analityczne metody badawcze.

Analityczne metody badań z wykorzystaniem eksperymentu.

Probabilistyczno-analityczna metoda badań.

Metody modelowania statycznego (metoda Monte Carlo).

Metoda analizy systemu.

Co to jest „statystyka matematyczna”

Przez statystykę matematyczną rozumie się „dział matematyki poświęcony matematycznym metodom gromadzenia, systematyzowania, przetwarzania i interpretacji danych statystycznych, a także wykorzystywania ich do wniosków naukowych lub praktycznych”. Zasady i procedury statystyki matematycznej opierają się na teorii prawdopodobieństwa, która pozwala ocenić trafność i rzetelność wniosków uzyskanych w każdym zadaniu na podstawie dostępnego materiału statystycznego.” Dane statystyczne oznaczają w tym przypadku informację o liczbie obiektów w mniej lub bardziej rozbudowanym zbiorze, które posiadają określone cechy.

W zależności od rodzaju rozwiązywanych problemów statystykę matematyczną dzieli się zwykle na trzy sekcje: opis danych, estymacja i testowanie hipotez.

Ze względu na rodzaj przetwarzanych danych statystycznych statystykę matematyczną dzieli się na cztery obszary:

  • - statystyka jednowymiarowa (statystyka zmiennych losowych), w której wynik obserwacji opisuje się liczbą rzeczywistą;
  • - wieloczynnikowa analiza statystyczna, gdzie wynik obserwacji obiektu opisuje się kilkoma liczbami (wektorami);
  • - statystyka procesów losowych i szeregów czasowych, gdzie wynik obserwacji jest funkcją;
  • - statystyka obiektów o charakterze nienumerycznym, w której wynik obserwacji ma charakter nienumeryczny, np. jest zbiorem (figurą geometryczną), uporządkowaniem lub uzyskany w wyniku pomiaru na podstawie na kryterium jakościowym.

Historycznie rzecz biorąc, jako pierwsze pojawiły się pewne obszary statystyki obiektów o charakterze nienumerycznym (w szczególności problemy szacowania proporcji defektów i testowania hipotez na jej temat) oraz statystyki jednowymiarowe. Aparat matematyczny jest dla nich prostszy, dlatego ich przykład jest zwykle używany do zademonstrowania podstawowych idei statystyki matematycznej.

Tylko te sposoby przetwarzania danych, tj. statystyka matematyczna opiera się na dowodach, które opierają się na probabilistycznych modelach odpowiednich rzeczywistych zjawisk i procesów. Mówimy o modelach zachowań konsumenckich, występowaniu zagrożeń, funkcjonowaniu urządzeń technologicznych, uzyskiwaniu wyników eksperymentów, przebiegu choroby itp. Model probabilistyczny zjawiska rzeczywistego należy uznać za skonstruowany, jeżeli rozważane wielkości i powiązania między nimi wyrażone są w kategoriach teorii prawdopodobieństwa. Zgodność z probabilistycznym modelem rzeczywistości, tj. jej adekwatność potwierdza się w szczególności za pomocą statystycznych metod testowania hipotez.

Nieprobabilistyczne metody przetwarzania danych mają charakter eksploracyjny, można je stosować jedynie we wstępnej analizie danych, gdyż nie pozwalają na ocenę trafności i wiarygodności wniosków uzyskanych na podstawie ograniczonego materiału statystycznego.

Metody probabilistyczne i statystyczne znajdują zastosowanie wszędzie tam, gdzie możliwe jest zbudowanie i uzasadnienie probabilistycznego modelu zjawiska lub procesu. Ich stosowanie jest obowiązkowe, gdy wnioski wyciągnięte z danych próby przenoszone są na całą populację (np. z próbki na całą partię produktów).

W określonych obszarach zastosowań stosuje się zarówno metody probabilistyczne, jak i statystyczne o zastosowaniu ogólnym i szczegółowym. Przykładowo w dziale zarządzania produkcją poświęconym statystycznym metodom zarządzania jakością produktu wykorzystuje się stosowaną statystykę matematyczną (w tym projektowanie eksperymentów). Za pomocą jej metod przeprowadza się analizę statystyczną dokładności i stabilności procesów technologicznych oraz statystyczną ocenę jakości. Metody szczegółowe obejmują metody statystycznej kontroli akceptacji jakości produktu, statystycznej regulacji procesów technologicznych, oceny i kontroli niezawodności itp.

Powszechnie stosowane są stosowane dyscypliny probabilistyczne i statystyczne, takie jak teoria niezawodności i teoria kolejkowania. Treść pierwszego z nich wynika jasno z nazwy, drugi dotyczy badania systemów takich jak centrala telefoniczna odbierająca połączenia w losowych momentach – wymagań abonentów wybierających numery w swoich aparatach telefonicznych. Czas obsługi tych wymagań, tj. czas trwania rozmów jest również modelowany za pomocą zmiennych losowych. Wielki wkład w rozwój tych dyscyplin wniósł członek korespondent Akademii Nauk ZSRR A.Ya. Khinchin (1894-1959), akademik Akademii Nauk Ukraińskiej SRR B.V. Gnedenko (1912-1995) i inni krajowi naukowcy.

W wielu przypadkach w naukach o górnictwie konieczne jest badanie nie tylko procesów deterministycznych, ale także losowych. Wszystkie procesy geomechaniczne zachodzą w stale zmieniających się warunkach, w których pewne zdarzenia mogą wystąpić lub nie. W takim przypadku konieczna staje się analiza połączeń losowych.

Mimo losowego charakteru zdarzeń, podlegają one pewnym wzorcom, o których mowa w teoria prawdopodobieństwa , który bada teoretyczne rozkłady zmiennych losowych i ich charakterystykę. Inna nauka, tzw. statystyka matematyczna, zajmuje się metodami przetwarzania i analizy losowych zdarzeń empirycznych. Te dwie powiązane ze sobą nauki stanowią jedną matematyczną teorię masowych procesów losowych, szeroko stosowaną w badaniach naukowych.

Elementy teorii prawdopodobieństwa i statystyki matematycznej. Pod całość zrozumieć zbiór jednorodnych zdarzeń zmiennej losowej X, który stanowi podstawowy materiał statystyczny. Populacja może być ogólna (duża próba N), zawierający szeroką gamę opcji dla zjawiska masowego i selektywny (mała próbka N 1), co stanowi jedynie część populacji ogólnej.

Prawdopodobieństwo R(X) wydarzenia X zwany stosunkiem liczby przypadków N(X), które prowadzą do wystąpienia zdarzenia X do całkowitej liczby możliwych przypadków N:

W statystyce matematycznej analogią prawdopodobieństwa jest pojęcie częstotliwości zdarzeń, które jest stosunkiem liczby przypadków, w których zdarzenie miało miejsce, do całkowitej liczby zdarzeń:

Przy nieograniczonym wzroście liczby zdarzeń częstotliwość dąży do prawdopodobieństwa R(X).



Załóżmy, że istnieją pewne dane statystyczne przedstawione w postaci szeregu rozkładów (histogramu) na ryc. 4.11, wówczas częstotliwość charakteryzuje prawdopodobieństwo pojawienia się zmiennej losowej w przedziale і , a gładka krzywa nazywana jest funkcją rozkładu.

Prawdopodobieństwo zmiennej losowej jest ilościową oceną możliwości jej wystąpienia. Wiarygodne wydarzenie ma R=1, zdarzenie niemożliwe – R=0. Dlatego dla zdarzenia losowego i sumy prawdopodobieństw wszystkich możliwych wartości.

W badaniach nie wystarczy mieć krzywą rozkładu, ale trzeba także znać jej charakterystykę:

a) średnia arytmetyczna – ; (4,53)

b) zakres – R= X maks. – X min , który można wykorzystać do przybliżonego oszacowania zmienności zdarzeń, gdzie X maks i X min – skrajne wartości mierzonej wartości;

c) oczekiwanie matematyczne – . (4,54)

W przypadku ciągłych zmiennych losowych oczekiwanie matematyczne zapisuje się w postaci

, (4.55)

te. równa rzeczywistej wartości zaobserwowanych zdarzeń X, a odcięta odpowiadająca oczekiwaniu nazywana jest środkiem rozkładu.

d) dyspersja – , (4.56)

który charakteryzuje rozproszenie zmiennej losowej w stosunku do oczekiwań matematycznych. Wariancja zmiennej losowej nazywana jest także momentem centralnym drugiego rzędu.

W przypadku ciągłej zmiennej losowej wariancja jest równa

; (4.57)

e) odchylenie standardowe lub standardowe –

e) współczynnik zmienności (rozproszenie względne) –

, (4.59)

który charakteryzuje intensywność rozproszenia w różnych populacjach i służy do ich porównywania.

Pole pod krzywą rozkładu odpowiada jedności, co oznacza, że ​​krzywa obejmuje wszystkie wartości zmiennych losowych. Można jednak skonstruować dużą liczbę takich krzywych, które będą miały pole równe jedności, tj. mogą mieć różne rozproszenie. Miarą dyspersji jest dyspersja lub odchylenie standardowe (ryc. 4.12).


Powyżej zbadaliśmy główne cechy teoretycznej krzywej rozkładu, które są analizowane za pomocą teorii prawdopodobieństwa. W statystyce operują rozkładami empirycznymi, a głównym zadaniem statystyki jest dobór krzywych teoretycznych zgodnie z obowiązującym prawem rozkładu empirycznego.

Niech w wyniku n pomiarów zmiennej losowej otrzymamy szereg wariacyjny X 1 , X 2 , X 3 , …x rz. Przetwarzanie takich serii sprowadza się do następujących operacji:

– grupa x ja w przedziale i ustaw dla każdego z nich częstotliwości bezwzględne i względne;

– na podstawie wartości budowany jest histogram krokowy (ryc. 4.11);

– obliczyć charakterystyki krzywej rozkładu empirycznego: średnia arytmetyczna, wariancja D= ; odchylenie standardowe.

Wartości D I S rozkład empiryczny odpowiada wartościom, D(X) I S(X) rozkład teoretyczny.



Przyjrzyjmy się podstawowym teoretycznym krzywym rozkładu. Najczęściej w badaniach wykorzystuje się prawo rozkładu normalnego (ryc. 4.13), którego równanie ma postać:

(4.60)

Jeśli połączysz oś współrzędnych z punktem M, tj. przyjąć M(X)=0 i zaakceptuj , prawo rozkładu normalnego będzie opisane prostszym równaniem:

Do oszacowania rozproszenia zwykle używa się wielkości . Im mniej S, tym mniejsze rozproszenie, tj. obserwacje niewiele się od siebie różnią. Ze wzrostem S wzrasta rozproszenie, wzrasta prawdopodobieństwo błędów, a maksimum krzywej (rzędnej), równe , maleje. Dlatego wartość Na=1/ przy 1 nazywa się miarą dokładności. Odchylenia standardowe odpowiadają punktom przegięcia (zacieniony obszar na ryc. 4.12) krzywej rozkładu.

Analizując wiele losowych procesów dyskretnych, stosuje się rozkład Poissona (zdarzenia krótkoterminowe występujące w jednostce czasu). Prawdopodobieństwo wystąpienia szeregu zdarzeń rzadkich X=1, 2, ... dla danego okresu czasu wyraża prawo Poissona (patrz rys. 4.14):

, (4.62)

Gdzie X– liczba zdarzeń w danym okresie czasu T;

λ – gęstość, tj. średnia liczba zdarzeń w jednostce czasu;

– średnia liczba zdarzeń w czasie T;

W przypadku prawa Poissona wariancja jest równa matematycznemu oczekiwaniu liczby wystąpień zdarzeń w czasie T, tj. .

Aby zbadać ilościowe cechy niektórych procesów (czas awarii maszyn itp.), Stosuje się prawo rozkładu wykładniczego (ryc. 4.15), którego gęstość rozkładu wyraża się zależnością

Gdzie λ – intensywność (średnia liczba) zdarzeń w jednostce czasu.

W rozkładzie wykładniczym intensywność λ jest odwrotnością oczekiwań matematycznych λ = 1/M(X). Poza tym relacja jest aktualna.

Prawo rozkładu Weibulla jest szeroko stosowane w różnych dziedzinach badań (ryc. 4.16):

, (4.64)

Gdzie N, μ , – parametry prawa; X– argument, najczęściej czas.

Badając procesy związane ze stopniowym spadkiem parametrów (spadek wytrzymałości skały w czasie itp.), stosuje się prawo rozkładu gamma (ryc. 4.17):

, (4.65)

Gdzie λ , A– parametry. Jeśli A=1, funkcja gamma zamienia się w prawo wykładnicze.

Oprócz powyższych praw stosowane są również inne rodzaje dystrybucji: Pearson, Rayleigh, dystrybucja beta itp.

Analiza wariancji. W badaniach często pojawia się pytanie: w jakim stopniu ten lub inny czynnik losowy wpływa na badany proces? Metody wyznaczania głównych czynników i ich wpływu na badany proces omówiono w specjalnym dziale teorii prawdopodobieństwa i statystyki matematycznej - analiza wariancji. Rozróżnia się analizę jednoczynnikową i wieloczynnikową. Analiza wariancji opiera się na wykorzystaniu prawa rozkładu normalnego oraz na założeniu, że środki rozkładów normalnych zmiennych losowych są równe. Dlatego wszystkie pomiary można uznać za próbkę z tej samej normalnej populacji.

Teoria niezawodności. Metody teorii prawdopodobieństwa i statystyki matematycznej są często wykorzystywane w teorii niezawodności, która jest szeroko stosowana w różnych gałęziach nauki i technologii. Niezawodność rozumiana jest jako właściwość obiektu do wykonywania określonych funkcji (utrzymywania ustalonych wskaźników wydajności) przez wymagany okres czasu. W teorii niezawodności awarie są uważane za zdarzenia losowe. Do ilościowego opisu uszkodzeń wykorzystuje się modele matematyczne – dystrybuanty przedziałów czasowych (rozkład normalny i wykładniczy, Weibulla, rozkłady gamma). Zadanie polega na znalezieniu prawdopodobieństw różnych wskaźników.

Metoda Monte Carlo. Do badania złożonych procesów o charakterze probabilistycznym stosuje się metodę Monte Carlo. Za pomocą tej metody rozwiązuje się problemy znalezienia najlepszego rozwiązania spośród różnych rozważanych opcji.

Metoda Monte Carlo nazywana jest także metodą modelowania statystycznego. Jest to metoda numeryczna, polega na wykorzystaniu liczb losowych symulujących procesy probabilistyczne. Podstawą matematyczną metody jest prawo wielkich liczb, które sformułowane jest w następujący sposób: przy dużej liczbie testów statystycznych prawdopodobieństwo, że średnia arytmetyczna zmiennej losowej zmierza do jej oczekiwań matematycznych, jest równe 1:

, (4.64)

gdzie ε jest dowolną małą liczbą dodatnią.

Kolejność rozwiązywania problemów metodą Monte Carlo:

– zbieranie, przetwarzanie i analiza obserwacji statystycznych;

– wybór czynników głównych i odrzucenie czynników wtórnych oraz sporządzenie modelu matematycznego;

– tworzenie algorytmów i rozwiązywanie problemów na komputerze.

Aby rozwiązywać problemy metodą Monte Carlo, trzeba mieć szereg statystyczny, znać prawo jego rozkładu, wartość średnią, oczekiwanie matematyczne i odchylenie standardowe. Rozwiązanie jest skuteczne tylko przy użyciu komputera.

Wykład przedstawia usystematyzowanie krajowych i zagranicznych metod i modeli analizy ryzyka. Wyróżnia się następujące metody analizy ryzyka (rys. 3): deterministyczne; probabilistyczno-statystyczne (statystyczne, teoretyczno-probabilistyczne i probabilistyczno-heurystyczne); w warunkach niepewności o charakterze niestatystycznym (sieć rozmyta i neuronowa); łącznie, w tym różne kombinacje powyższych metod (deterministyczna i probabilistyczna; probabilistyczna i rozmyta; deterministyczna i statystyczna).

Metody deterministyczne umożliwiają analizę etapów rozwoju awarii, począwszy od zdarzenia początkowego, poprzez sekwencję oczekiwanych awarii, aż do ustalonego stanu końcowego. Przebieg procesu awaryjnego bada się i prognozuje za pomocą matematycznych modeli symulacyjnych. Wadami tej metody są: możliwość pominięcia rzadko realizowanych, ale ważnych łańcuchów rozwoju wypadków; trudność w skonstruowaniu wystarczająco odpowiednich modeli matematycznych; konieczność prowadzenia skomplikowanych i kosztownych badań eksperymentalnych.

Metody probabilistyczno-statystyczne Analiza ryzyka obejmuje zarówno ocenę prawdopodobieństwa wystąpienia wypadku, jak i obliczenie względnych prawdopodobieństw tej lub innej ścieżki rozwoju procesów. W tym przypadku analizuje się rozgałęzione łańcuchy zdarzeń i awarii, dobiera odpowiedni aparat matematyczny i ocenia pełne prawdopodobieństwo wystąpienia wypadku. W tym przypadku obliczeniowe modele matematyczne można znacznie uprościć w porównaniu z metodami deterministycznymi. Główne ograniczenia metody związane są z niewystarczającą statystyką dotyczącą awarii sprzętu. Ponadto stosowanie uproszczonych schematów obliczeń zmniejsza wiarygodność uzyskanych szacunków ryzyka w przypadku poważnych wypadków. Jednakże metoda probabilistyczna jest obecnie uważana za jedną z najbardziej obiecujących. Różny techniki oceny ryzyka, które w zależności od dostępnych informacji wstępnych dzielą się na:

Statystyczne, gdy prawdopodobieństwa są określane na podstawie dostępnych danych statystycznych (jeśli są dostępne);

Teoria prawdopodobieństwa, stosowana do oceny ryzyka rzadkich zdarzeń, gdy praktycznie nie ma statystyk;

Probabilistyczno-heurystyczna, opierająca się na wykorzystaniu subiektywnych prawdopodobieństw uzyskanych na podstawie oceny eksperckiej. Wykorzystuje się je przy ocenie złożonych ryzyk wynikających z kombinacji zagrożeń, gdy brakuje nie tylko danych statystycznych, ale także modeli matematycznych (lub ich dokładność jest zbyt mała).



Metody analizy ryzyka w warunkach niepewności charakter niestatystyczny mają na celu opisanie niepewności źródła zagrożenia – odpadów chemicznych, związanej z brakiem lub niekompletnością informacji o procesach powstawania i rozwoju awarii; błędy ludzkie; założenia modeli stosowanych do opisu rozwoju procesu awaryjnego.

Wszystkie powyższe metody analizy ryzyka są klasyfikowane ze względu na charakter informacji początkowej i wynikowej jakość I ilościowy.


Ryż. 3. Klasyfikacja metod analizy ryzyka

Ilościowe metody analizy ryzyka charakteryzują się obliczaniem wskaźników ryzyka. Przeprowadzenie analizy ilościowej wymaga wysoko wykwalifikowanych wykonawców, dużej ilości informacji na temat wypadkowości, niezawodności sprzętu, uwzględnienia charakterystyki otoczenia, warunków pogodowych, czasu spędzanego przez ludzi na terenie i w pobliżu obiektu, gęstości zaludnienia i innych czynniki.

Skomplikowane i kosztowne obliczenia często dają wartość ryzyka, która nie jest zbyt dokładna. W przypadku niebezpiecznych zakładów produkcyjnych dokładność indywidualnych obliczeń ryzyka, nawet jeśli dostępne są wszystkie niezbędne informacje, nie jest większa niż jeden rząd wielkości. Jednak przeprowadzenie ilościowej oceny ryzyka jest bardziej przydatne do porównywania różnych opcji (na przykład rozmieszczenia sprzętu) niż do wyciągania wniosków na temat stopnia bezpieczeństwa obiektu. Doświadczenia zagraniczne pokazują, że największa liczba zaleceń dotyczących bezpieczeństwa opracowywana jest przy użyciu wysokiej jakości metod analizy ryzyka, które wymagają mniejszej ilości informacji i kosztów pracy. Jednakże ilościowe metody oceny ryzyka są zawsze bardzo przydatne, a w niektórych sytuacjach są jedynymi akceptowalnymi przy porównywaniu zagrożeń o różnym charakterze oraz podczas badania niebezpiecznych obiektów produkcyjnych.



DO deterministyczny metody obejmują:

- jakość(Lista kontrolna); „Co się stanie, jeśli?” (Co – jeśli); Wstępna analiza zagrożeń (analiza zagrożeń i skutków procesu) (PHA); „Analiza trybów i skutków awarii” (analiza trybów i skutków awarii) (FMEA) Analiza błędów działań (AEA), Analiza zagrożeń koncepcji (CHA), Przegląd bezpieczeństwa koncepcji (CSR), Analiza niezawodności człowieka (HRA) i Błędy ludzkie lub interakcje (HEI);

- ilościowy(Metody oparte na rozpoznawaniu wzorców (analiza skupień); Ranking (oceny eksperckie); Metodologia określania i rankingu ryzyka (identyfikacja zagrożeń i analiza rankingowa) (HIRA); Analiza rodzaju awarii, skutków i krytyczności (trybu awarii, skutków i analiza krytyczna ( FMECA); Metodologia analizy efektów domina; Metody określania i oceny potencjalnego ryzyka); Kwantyfikacja wpływu na niezawodność człowieka (kwantyfikacja ludzkiej niezawodności) (HRQ).

DO probabilistyczno-statystyczne metody obejmują:

Statystyczny: jakość metody (mapy przepływu) i ilościowy metody (karty kontrolne).

Metody oparte na teorii prawdopodobieństwa obejmują:

-jakość(Prekursor sekwencji wypadków (ASP));

- ilościowy(Analiza drzewa zdarzeń) (ADS) (Analiza drzewa zdarzeń) (ETA); Analiza drzewa błędów (FTA); Ocena ryzyka na skróty (SCRA); Drzewo decyzyjne; Probabilistyczna ocena ryzyka CWO.

Probabilistyczne metody heurystyczne obejmują:

- jakość– ocena ekspercka, metoda analogii;

- ilościowy– punktacja, subiektywne prawdopodobieństwa oceny stanów niebezpiecznych, koordynacja ocen grupowych itp.

Metody probabilistyczno-heurystyczne stosuje się w przypadku braku danych statystycznych oraz w przypadku zdarzeń rzadkich, gdy możliwości stosowania dokładnych metod matematycznych są ograniczone ze względu na brak wystarczającej informacji statystycznej o wskaźnikach niezawodności i charakterystykach technicznych systemów, jak np. a także ze względu na brak wiarygodnych modeli matematycznych opisujących układy stanu rzeczywistego. Probabilistyczne metody heurystyczne opierają się na wykorzystaniu subiektywnych prawdopodobieństw uzyskanych na podstawie oceny eksperckiej.

Istnieją dwa poziomy wykorzystania ocen eksperckich: jakościowy i ilościowy. Na poziomie jakościowym określa się możliwe scenariusze rozwoju niebezpiecznej sytuacji na skutek awarii systemu, wybór ostatecznego rozwiązania itp. Dokładność ocen ilościowych (punktowych) zależy od kwalifikacji naukowych ekspertów, ich umiejętności oceniać określone warunki, zjawiska i sposoby rozwoju sytuacji. Dlatego przy prowadzeniu badań eksperckich w celu rozwiązania problemów analizy i oceny ryzyka konieczne jest stosowanie metod koordynacji decyzji grupowych w oparciu o współczynniki zgodności; konstruowanie rankingów uogólnionych na podstawie indywidualnych rankingów ekspertów metodą porównań parach i innymi. Do analizy różnych źródeł zagrożeń w produkcji chemicznej można zastosować metody oparte na ocenach eksperckich i konstruować scenariusze rozwoju wypadków związanych z awariami środków technicznych, urządzeń i instalacji; w celu uszeregowania źródeł zagrożeń.

W kierunku metod analizy ryzyka w warunkach niepewności o charakterze niestatystycznym włączać:

-rozmyta jakość(Badanie zagrożeń i operatywności (HAZOP) oraz metody oparte na rozpoznawaniu wzorców (logika rozmyta));

- sieć neuronowa metody przewidywania awarii środków i systemów technicznych, naruszeń technologicznych i odchyleń stanów parametrów technologicznych procesów; poszukiwanie działań kontrolnych mających na celu zapobieganie sytuacjom awaryjnym oraz identyfikacja sytuacji przedawaryjnych na obiektach niebezpiecznych chemicznie.

Należy pamiętać, że analiza niepewności w procesie oceny ryzyka polega na przełożeniu niepewności parametrów wyjściowych i założeń przyjętych przy ocenie ryzyka na niepewność wyników.

Aby osiągnąć pożądany efekt opanowania dyscypliny, podczas zajęć praktycznych zostaną szczegółowo omówione następujące STO CMMM:

1. Podstawy probabilistycznych metod analizy i modelowania SS;

2. Statystyczne metody i modele matematyczne układów złożonych;

3. Podstawy teorii informacji;

4. Metody optymalizacji;

Ostatnia część.(Część końcowa stanowi krótkie podsumowanie wykładu oraz zawiera zalecenia do samodzielnej pracy w celu pogłębienia, poszerzenia i praktycznego zastosowania wiedzy na ten temat).

W związku z tym rozważono podstawowe pojęcia i definicje technosfery, analizę systemową złożonych systemów oraz różne metody rozwiązywania problemów projektowania złożonych systemów i obiektów technosfery.

Praktyczna lekcja na ten temat będzie poświęcona przykładom projektów złożonych systemów z wykorzystaniem podejść systematycznych i probabilistycznych.

Na koniec lekcji nauczyciel odpowiada na pytania dotyczące materiału wykładowego i ogłasza zadanie do samodzielnej nauki:

2) udoskonalić notatki z wykładów o przykłady systemów wielkoskalowych: transportu, łączności, przemysłu, handlu, systemów monitoringu wizyjnego i globalnych systemów kontroli pożarów lasów.

Opracowany przez:

Profesor nadzwyczajny Katedry O.M. Miedwiediew


Zmień kartę rejestracyjną