dom - Porozumienie
Matematyczne metody analizy systemów i podejmowania decyzji. Metody matematyczne w podejmowaniu decyzji Metody matematyczne w podejmowaniu decyzji zarządczych

Cechy zastosowania teorii matematycznej w podejmowaniu decyzji zarządczych

Notatka 1

Metody bazujące na wykorzystaniu matematyki pozwalają na podejmowanie decyzji zarządczych, które można sformalizować lub w pełni opisać powiązania i współzależność ich uwarunkowań, czynników i skutków.

Stosowanie teorii matematycznej jest typowe przy podejmowaniu decyzji taktycznych, a częściowo operacyjnych.

Zastosowanie teorii matematycznej jest skuteczne w obecności szeregu parametrów decyzji zarządczej:

  • cel lub kryterium optymalizacji jest z góry jasno znane;
  • główne ograniczenia są oczywiste – warunki osiągnięcia tego celu;
  • Problem zarządzania jest dobrze skonstruowany.

Algorytm teorii matematycznej

Osobliwością matematycznej teorii uzasadniania decyzji zarządczych jest obecność w niej pewnego algorytmu, który precyzyjnie określa wykonanie określonego systemu operacji w ustalonej kolejności w celu rozwiązania określonej klasy problemów.

Algorytm matematycznej teorii podejmowania decyzji zarządczych musi spełniać szereg wymagań:

  • pewność, tj. dokładność i jednoznaczność, nie pozostawiająca miejsca na dowolność;
  • skala masowa i uniwersalność - możliwość zastosowania do rozwiązywania określonej klasy problemów, gdy dane początkowe różnią się w znanych granicach;
  • skuteczność, tj. możliwość rozwiązania danego problemu w ograniczonej liczbie operacji.

Matematyczne metody podejmowania decyzji zarządczych

Główne metody rozwiązywania typowych problemów zarządzania w ramach teorii matematycznej to:

  1. Metodę analizy matematycznej stosuje się w obliczeniach w celu uzasadnienia wymagań dotyczących zasobów, rachunku kosztów, opracowania projektu itp.
  2. Metoda statystyki matematycznej jest wygodna w zastosowaniu, gdy zmiana badanych wskaźników jest procesem losowym.
  3. Metoda ekonometryczna polega na wykorzystaniu modelu ekonomicznego – schematycznego przedstawienia procesu lub zjawiska gospodarczego.
  4. Programowanie liniowe to rozwiązanie układu równań, gdy między badanymi zjawiskami istnieje ściśle funkcjonalna zależność.
  5. Programowanie dynamiczne służy do rozwiązywania problemów optymalizacyjnych, w których ograniczenia lub funkcja celu mają związek nieliniowy.
  6. Teoria kolejkowania służy do znalezienia optymalnej liczby kanałów obsługi dla danego poziomu zapotrzebowania na nie. Przykładem takiej sytuacji jest wybór optymalnej opcji organizacji pracy z klientami tak, aby czas obsługi był minimalny, a jakość wysoka bez dodatkowych kosztów.
  7. Metoda badań operacyjnych polega na wykorzystaniu matematycznych modeli probabilistycznych, które reprezentują badany proces, czynność lub system. Optymalizacja sprowadza się do badania porównawczego szacunków numerycznych tych parametrów, których nie można oszacować metodami konwencjonalnymi.
  8. Analiza sytuacyjna to złożona technologia podejmowania i wdrażania decyzji zarządczych, która opiera się na analizie odrębnej sytuacji zarządczej. Analiza taka opiera się na konkretnej sytuacji, problemie pojawiającym się w działalności organizacji, który wymaga podjęcia decyzji zarządczej.
  9. Metody teorii gier – modelowanie sytuacji, w której uzasadniając decyzje, należy uwzględnić konflikt lub rozbieżność interesów różnych jednostek.
  10. Punkty progowe to metoda polegająca na zrównywaniu całkowitych przychodów z całkowitymi wydatkami w celu znalezienia punktu, który przynosi przedsiębiorstwu minimalny zysk.
  11. Projekcja trendu to analiza szeregów czasowych oparta na założeniu, że to, co wydarzyło się w przeszłości, stanowi dobre przybliżenie przy szacowaniu przyszłości. Metodę tę stosuje się do identyfikacji przeszłych trendów i przeniesienia ich na przyszłość.

Kryteria decyzyjne i ich skale

Ze schematu procesu uzasadniania decyzji pokazanego na ryc. 1.5 widać, że proces ten kończy się na etapie oceny alternatyw. To właśnie w tej fazie następuje zasada pomiaru . Jednocześnie rozwiązywane są niemal nierozerwalnie i jednocześnie dwie powiązane ze sobą kwestie: opracowanie (uformowanie) kryterium oraz uzyskanie szacunków kryterialnych dla każdego ze zbioru akceptowalnych alternatyw wygenerowanych przez decydenta.

Kryterium (funkcja celu, wskaźnik) to specjalna funkcja zdefiniowana w nominalny , liczbowy Lub ilościowy skala, której zakres wynosi wiele alternatyw .

Kryterium ma na celu zmierzenie stopnia efektywności (wkładu, użyteczności lub wartości) każdej alternatywy w osiągnięciu celu operacji. Nazywa się wartości, które przyjmuje ta funkcja szacunki kryterialne .

Pomiar to proces przypisywania obiektom takich symboli, którego porównanie wartości pozwala wyciągnąć wnioski na temat relacji obiektów ze sobą. Dla decydenta oznacza to co następuje: jeżeli decydentowi udało się wybrać takie kryterium oceny alternatyw, że jedna z nich ma wyższą ocenę kryterium od pozostałych, to możemy założyć, że wybierając alternatywę o największym (maksymalnym ) wartość oceny kryterialnej, decydent wybierze tym samym najlepszą alternatywę.

Gdzie - alternatywy; - wartości szacunków kryterialnych dla alternatyw; - poziomy użyteczności dla decydentów uzyskanych wartości oceny odpowiednio; - symbol oznaczający nieścisłą przewagę alternatyw i nieścisłą nierówność szacunków (liczb); Û - znak podwójnej implikacji („wtedy i tylko wtedy”, „konieczne i wystarczające”).

Zależność (1.1) należy rozumieć następująco: jeżeli jakaś alternatywa nie jest gorsza od innej (w naszym przypadku alternatywa jest nie mniej korzystna od alternatywy), to wartość użyteczności dla bardziej preferowanej alternatywy nie powinna być mniejsza niż dla mniej korzystne (w naszym przypadku funkcja użyteczności musi mieć wartość nie mniejszą niż . W tym przypadku koniecznie założymy (co jest szczególnie ważne), że jest również odwrotnie (znak podwójnej implikacji „jeśli i tylko wtedy” w wyrażeniu na to wskazuje).

To właśnie możliwość „odwrotnego odczytania” wyrażenia (1.1) pozwala na wyciągnięcie ważnego wniosku: jeśli zostaną znalezione alternatywy o maksymalnej użyteczności, to są one najprawdopodobniej (w granicach dokładności zbudowanego modelu) ty (X) preferencje) będą najlepszymi rozwiązaniami.

Zatem z zależności (1.1) wynika bezpośrednio formalna zasada wyboru najlepszej alternatywy:

, (1.2)

Gdzie - najlepsza alternatywa ; - wiele alternatyw .

Teoria pomiaru opracowała szeroki arsenał skal, zróżnicowanych pod względem właściwości, do pomiaru wartości kryteriów. Skale te pozwalają najlepiej spełnić wymóg dużej zawartości informacji przy rozwiązywaniu problemu wyboru najlepszej alternatywy, a jednocześnie osiągnąć wystarczającą prostotę i oszczędność kosztów pomiarów.

Jeśli więc celem pomiaru jest podzielenie obiektów (w naszym przypadku są to alternatywy) na klasy według kryteriów takich jak „tak – nie”, „przyjaciel – wróg”, odpowiedni – nieodpowiedni” itp., to tzw. zwany nominalny Lub ( Klasyfikacja ) waga. Równie odpowiednie będą w tym przypadku wszelkie formy przedstawiania ocen w skali nominalnej, które nie pozwalają na utożsamienie ze sobą obiektów z różnych klas. Dlatego często przy modelowaniu preferencji jako gradację skal nominalnych stosuje się skalę liczb całkowitych, a nawet skalę binarną o wartościach (1; 0). Na przykład decydent może założyć, że wszystko, co jest „tak”, jest jednością, a wszystko, co jest „nie”, jest zerem.

Można dokonać dowolnych przekształceń jeden do jednego na wartości ocen w skalach nominalnych, zachowując jednocześnie znaczenie stwierdzeń podanych wyrażeniem (1.1).

Jeśli celem pomiaru jest uporządkowanie obiektów tej samej klasy zgodnie z intensywnością ich przejawów jednej wspólnej właściwości, wówczas najbardziej wyrazisty i ekonomiczny będzie ranga , Lub porządkowy skala. Przykładowo, jeśli charakterystyczna „wielkość sprzedaży” jest wspólna dla strategii ekspansji rynkowej, to dostępne dla decydentów alternatywy ekspansji można np. regulować w skali porządkowej wartościami „wysoki”, „średni”, „ Niski". Tutaj możesz także przypisać wartości liczbowe – rangi – do gradacji skali. Skala w tym przypadku nazywa się ranga . Przykładowo, jeśli pierwszemu obiektowi w uporządkowanym wierszu zostanie przypisana ranga równa 1, drugiemu równa 2 itd., wówczas otrzymamy tzw. bezpośrednia skala rankingowa . Ranking jest również możliwy w odwrócone skale rankingowe , gdzie bardziej preferowany obiekt otrzymuje wyższą, a nie niższą rangę. Oszacowania w skalach rang pozwalają na dowolne przekształcenia monotonicznie rosnące lub monotonicznie malejące.

Skale nominalne i rangowe należą do klasy tzw skale jakościowe , czyli skale, które pozwalają na dokonanie jedynie werbalnych (na poziomie nieformalnym, jakościowym) ocen i sądów.

Jednak w praktyce niezwykle często zdarzają się przypadki, gdy prosta, jakościowa ocena dotycząca kolejności alternatyw nie wystarczy. Na przykład, aby podjąć decyzję, decydent musi nie tylko dowiedzieć się, że jedna z alternatyw ekspansji na rynku zapewnia większy wolumen sprzedaży niż druga. Nadal musi zorientować się, o ile lub ile razy poziom sprzedaży jest wyższy (lub niższy) w przypadku alternatyw. W takich sytuacjach do pomiaru wartości kryteriów stosuje się najbardziej zaawansowaną klasę skal - skale ilościowe .

Podklasy skal ilościowych to interwał skala , skala relacje I absolutny skala - najdoskonalsza ze wszystkich skal. Absolutny skala pozwala jedynie na przekształcenia tożsamościowe nad jej wartościami. Pośrednią pozycję (w sensie doskonałości) pomiędzy skalą jakościową a ilościową zajmuje numeryczny , punkt skala. W tej skali oceny kryterialne wyrażane są w formie liczbowej, czyli punktów przyznawanych według zasad ustalonych przez decydenta.

Jeśli chodzi o właściwości skal punktowych, to im mniej mają one gradacji (na przykład 3-5 gradacji numerycznych) i im prostsze są zasady przydzielania punktów, tym bliższe są one skalom jakościowym, rankingowym. I odwrotnie, im większa liczba gradacji i im bardziej złożone zasady przydzielania punktów, tym skala punktowa w swoich właściwościach i możliwościach jest bliższa skali ilościowej, interwałowej.

Aby zatem skorzystać z modelu formalnego (1.2) w celu wybrania najlepszej alternatywy, należy podjąć decyzję problemu z pomiarem .

Decydent na samym początku dokonuje dogłębnej analizy celu, zyskując zrozumienie przydatności osiągniętych wyników dla rozwiązania problemu. To właśnie na tym etapie decydent pracuje wykorzystując technologię „nominacji” w najprostszej, jakościowej skali. Posługując się słownym opisem celu operacji, decydent dokładnie modeluje cel, formalnie odtwarzając go w ogólnym przypadku w postaci wektor wymagany wynik. Następnie, kierując się zasadą „te szczególne kryteria należy przypisać kosztorysom, a te, które mają wpływ na szacunki”, tworzy się w ogólnym przypadku kryterium wektora W. Następnie przeprowadza się miarodajną analizę składu i genezy (pochodzenia) czynników determinujących rodzaj mechanizmu sytuacji.

W oparciu o ideę celu i mechanizmu sytuacji tworzy się decydent koncepcyjny zestaw alternatyw , zasadniczo prowadzące do osiągnięcia celu operacji. Następnie poddaje się znaczącej analizie koncepcyjny zestaw alternatywnych decydentów w celu wyodrębnienia z niego fizycznie wykonalne alternatywy . Oznacza to, że każda z alternatyw zbioru pojęciowego jest sprawdzana przez decydenta pod kątem jej akceptowalności zarówno pod względem osiągnięcia celu operacji, jak i pod względem spełnienia ograniczeń czasowych na przygotowanie i wdrożenie tej alternatywy w trakcie operacji oraz wymaganych zasoby niezbędne do fizycznej realizacji alternatywy.

Kiedy oceny koncepcyjne koszty I efekt (czyli szacunki w nominalny skali), możliwe jest obecnie formalne wyeliminowanie mniej preferowanych alternatyw pojęciowych. Za mniej korzystne w tym przypadku należy uznać te z fizycznie możliwych do wdrożenia alternatyw koncepcyjnych, które są jednocześnie gorsze od co najmniej jednego z pozostałych pod względem efektów i szacunków kosztów.

W procesie takiej „nominacji” otrzymują fizycznie wykonalny, dopuszczalny zestaw alternatyw , składający się z „nie najgorszych” komponentów.

Następnie dla każdej alternatywy ze zbioru alternatyw fizycznie możliwych do realizacji należy zmierzyć wartości wszystkich składowych cząstkowych kryterium wektora w bardziej zaawansowanej skali – rankingowej lub punktowej, uzyskać szacunki i wyciągnąć wnioski na temat „trendów” objawia się zmianami wartości ocen kryterialnych wraz ze zmianami wartości czynników sterowalnych dostępnych w opisie alternatyw.

Trendy badane na podstawie pomiarów posłużą jako główne wytyczne przy sprawdzaniu adekwatności bardziej subtelnych modeli i pozwolą na porównania ocen alternatyw na poziomie ilościowym.

Na trzecim etapie procesu pomiaru budowane są modele umożliwiające pomiar wyników kryteriów w bardziej zaawansowanych skalach ilościowych, takich jak skale interwałowe lub ilorazowe. Dzięki temu dokładniej ustalane są nie tylko trendy, ale także proporcje wartości oceny. Na tym samym etapie pomiary stanowią funkcję użyteczności dla decydenta, pozwalającą na ocenę kryteriów, również z reguły na skali przedziałowej.

Schemat procesu decyzyjnego

Głównym celem decydenta i końcowym produktem jego działań zarządczych jest opracowanie decyzji. Oczywiście ważne są także inne jego funkcje kierownicze, takie jak organizowanie interakcji, kompleksowe zapewnienie operacji, kontrola, udzielanie pomocy, ocena rzeczywistej efektywności operacji, rejestracja, uogólnianie i rozpowszechnianie doświadczeń zgromadzonych podczas operacji.

Schemat struktury podejmowania decyzji zarządczych przedstawiono na ryc. 1.7.

Ryż. 1.7. Schemat procesu decyzyjnego.

Podstawą podejmowania wszelkich decyzji na wszystkich etapach procesu decyzyjnego są oczywiście preferencje decydenta.

Bez wątpienia należy odpowiednio rozpocząć proces decyzyjny formalizacja preferencji .

Po sformalizowaniu preferencji decydenta i uzyskaniu niezbędnych informacji o preferencjach przechodzi on do kolejnego ważnego etapu podejmowania decyzji – konstruowania funkcji wyboru.

Funkcja wyboru w teorii decyzji ma fundamentalne znaczenie. To właśnie jego konstrukcja ostatecznie koncentruje się na rozwiązaniu problemów związanych z utworzeniem wstępnego zestawu alternatyw, analizą warunków działania, identyfikacją i pomiarem preferencji decydenta.

Zgodnie z formalną definicją przyjętą w TPR, funkcja selekcji jest odwzorowaniem formy

, (1.3)

Gdzie - pewien zestaw (początkowy dla rozpatrywanego etapu decyzyjnego), z którego dokonuje się wyboru; - podzbiór, który ma pewne (znane lub określone) właściwości oraz .

W przypadku stopniowego uzyskiwania w trakcie pomiarów informacji od decydenta o jego preferencjach, najpierw konstruuje się funkcję selekcji na podstawie wyników pomiaru i oceny w najbardziej wiarygodnym, ale i mniej dokładnym nominalny oparte na skali jakość oceny preferencji. W efekcie z początkowego zbioru A alternatyw otrzymuje się pierwszą reprezentację pożądanego podzbioru alternatyw, która zawiera najlepszą alternatywę.

Jeżeli decydent po przeprowadzeniu nieformalnej analizy podzbioru nie był jeszcze w stanie podjąć decyzji o wyborze, wówczas należy kontynuować konstrukcję funkcji selekcji. Aby to zrobić, decydent musi doprecyzować zmierzone preferencje, na przykład stosując do ich pomiaru bardziej zaawansowaną metodę porządkowy Lub zwrotnica , skala.

W wyniku doprecyzowania rodzaju funkcji wyboru w ogólnym przypadku otrzymany zostanie inny podzbiór alternatyw, oraz . Teraz decydent powinien skupić się na analizie tego ostatniego zestawu, ponieważ ponownie zawiera się w nim najlepsza alternatywa. Następnie, jeśli zajdzie taka potrzeba, można ponownie wyjaśnić preferencje decydenta, mierząc je w dowolnej skali proporcjonalnej i tak dalej, aż decydent z pewnością wybierze najlepszą alternatywę.

Należy pamiętać, że konkretny typ funkcji wyboru realizującej mapowanie (1.3) zależy od mechanizmu sytuacji.

Okoliczność tę widać na schemacie ryc. 1.7. możliwości konstrukcji funkcji wyboru z wyszczególnieniem ich ze względu na rodzaj warunków niepewności: w warunkach niepewność stochastyczna , w warunkach niepewność behawioralna i w warunkach naturalna niepewność .

Docelowa różnica w zastosowaniu kryteriów skalarnych i wektorowych zdecydowała o konieczności wyświetlenia na ryc. 1.7 w ogólnym przypadku dwie możliwości postaci danych początkowych i procedury konstruowania funkcji selekcji – według kryterium skalarnego lub wektorowego.

Otrzymanie informacji

Proces decyzyjny wymaga jak największej ilości informacji zarówno o samym systemie sterowania, jak i o jego środowisku działania (otoczeniu). Bez tego rodzaju informacji niemożliwa jest analiza warunków podejmowania decyzji i ich identyfikacja mechanizm sytuacji i formacja początkowy zestaw alternatyw . Osoba podejmująca decyzję musi przeprowadzić sensowną analizę informacji o warunkach przeprowadzenia operacji i uzyskać wiarygodne wyobrażenia na temat mechanizmu sytuacji. Tylko zdobywając te informacje, decydent będzie mógł, z punktu widzenia podejścia systematycznego, nie tylko werbalnie opisać główne (wiodące) czynniki, które przyczyniają się i utrudniają utworzenie pomyślnego wyniku operacji, ale także formalnie ocenić stopień ich wpływu na skuteczność wyniku.

Aby to zrobić, konieczne jest dokładne zrozumienie, jakie informacje, jakiej jakości i w jakim terminie są potrzebne. Wynik tej pośredniej decyzji (treść, wymagana dokładność i rzetelność informacji, szybkość jej uzyskania) pomoże decydentowi świadomie wybrać jedno z dostępnych źródeł informacji i podjąć decyzję. Schemat klasyfikacji możliwych źródeł i metod pozyskiwania informacji przedstawiono na ryc. 1.8.

Ryż. 1.8. Schemat pojęciowy klasyfikacji możliwych źródeł i metod pozyskiwania informacji.

Z analizy obwodu na ryc. 1.8. Wynika z tego, że w zasadzie istnieją tylko trzy źródła informacji:

· dane empiryczne;

· wiedza, osobiste doświadczenie i intuicja decydenta;

· doradztwo eksperckie (ekspertyza).

Wiadomo, że niemal najczęściej ludzie czerpią informacje z własnego doświadczenia i wiedzy, a własna intuicja pomaga im uzupełniać luki w wiedzy pozytywnej.

Ponadto istnieją jeszcze dwie zasadnicze możliwości: poszukaj niezbędnych informacji w jednym z „obiektywnych źródeł”, w których zapisane jest historyczne doświadczenie ludzkości (dane empiryczne), lub zwróć się do „subiektywnego źródła” – wiedzy, umiejętności i umiejętności uznanych specjalistów w swojej dziedzinie (ekspertów).

TPR w to wierzy ekspert - jest to osoba, która osobiście zajmuje się rozpatrywaną dziedziną działalności, jest uznanym ekspertem w rozwiązywanym problemie oraz może i ma możliwość wyrażenia na ten temat opinii w formie dostępnej dla decydenta.

Eksperci wykonują prace informacyjno-analityczne w oparciu o osobiste wyobrażenia o rozwiązywanym problemie. Ogólnie rzecz biorąc, poglądy ekspertów mogą nie pokrywać się z opinią decydenta. Ta różnica zdań odgrywa rolę zarówno negatywną, jak i pozytywną. Z jednej strony w przypadku rozbieżności zdań proces wypracowywania rozwiązania ulega opóźnieniu, z drugiej jednak strony decydent może krytycznie zastanowić się nad alternatywnym punktem widzenia lub dostosować własne preferencje.

Aby zwiększyć osobistą pewność, że specjalista udzielił mu właściwej rady, decydent może zwrócić się nie do jednego, ale do kilku ekspertów. W związku z tym rozróżniają indywidualny (jeden ekspert) i Grupa badanie. Jeżeli pytanie jest ściśle poufne, czas jest ograniczony lub nie ma możliwości poproszenia kilku specjalistów o odpowiedź na interesujące nas pytanie, wówczas najlepszym sposobem uzyskania informacji jest indywidualne badanie. Jeśli jednak wymienione ograniczenia nie są znaczące, wówczas niewątpliwie badanie grupowe jest na ogół bardziej niezawodnym i dokładnym sposobem uzyskania informacji.

Jednocześnie podczas badania grupowego może wystąpić rozbieżność między subiektywnymi ocenami poszczególnych specjalistów. W związku z tym konieczne jest podjęcie specjalne techniki przetwarzania informacji eksperckich w celu zwiększenia wiarygodności wyników.

TPR opracowało specjalny zestaw procedur organizacyjnych, technicznych i matematycznych, które zapewniają harmonię i logiczną spójność całemu procesowi pozyskiwania, przetwarzania i analizowania grupowych informacji eksperckich. Ten zespół procedur, obejmujący badanie (czyli samo badanie ekspertów) jako jedynie jeden z etapów pozyskiwania informacji, w TPR nazwano metoda oceny eksperckiej .

Historycznie rzecz biorąc, gromadząc wiedzę, ucząc się pisać, ludzie zaczęli rejestrować swoje obiektywne doświadczenia. Wszystkie przydatne informacje zaczęto rejestrować w takiej czy innej formie na specjalnych nośnikach. Początkowo media te były niedoskonałe (np. rękopisy, książki) i niedostępne, stopniowo jednak nabrały bardziej zaawansowanej formy, a wraz z rozwojem poligrafii przekształciły się w biblioteki, banki danych (BnD), bazy danych (BzD) i wiedzę. zasady (KBZ) . Proces wyszukiwania informacji publicznie dostępnych stał się wygodniejszy, wydajniejszy, a nawet kreatywny. Ale jednocześnie niektóre informacje i niektóre źródła informacji stały się niedostępne dla ogółu społeczeństwa. Zatem w przypadku, gdy decydent z różnych powodów nie może znaleźć potrzebnych mu informacji w źródłach ogólnodostępnych, należy je aktywnie pozyskiwać. Aby uzyskać niedostępne informacje, decydent może się zorganizować i przeprowadzić na pełną skalę Lub Model eksperyment , może zastosować rozpoznanie lub użyć specjalnych środków.

Inteligencja lub sprzęt specjalny wymagają znacznych kosztów; to samo dotyczy eksperymentu, zwłaszcza jeśli jest on zakrojony na dużą skalę i przeprowadzany pod wpływem niejednoznacznego mechanizmu sytuacji. Dlatego też, aby zaoszczędzić pieniądze, wskazane jest przeprowadzenie badania ściśle naukowego planowanie eksperymentu , ustalić ilościowo jego parametry, które są optymalne pod względem efektywności przyszłych decyzji i działań decydentów.

Znaczący postęp teoretyczny nastąpił w planowaniu eksperymentów na modelach matematycznych z wykorzystaniem komputerów. Aparat matematycznej teorii planowania koncentruje się głównie na badaniu losowych mechanizmów sytuacji. Jednocześnie często przydaje się w innych sytuacjach.

Rozważmy sformułowanie problemu planowania eksperymentu.

Jeżeli celem badania jest maksymalizacja korzystnego efektu eksperymentu przy ograniczeniu kosztów, a sam korzystny efekt jest w świadomości decydenta skorelowany z zapewnieniem ekstremum (na przykład maksimum) wyniku wyjściowego, wówczas zadanie ustalenia optymalnych parametrów eksperymentu zostanie zredukowane do chęci maksymalizacji wyniku wyjściowego przy ograniczeniach kosztów. Na przykład, jeśli trzeba zwiększyć wydajność jakiejś przydatnej substancji w procesie produkcji chemicznej, a wielkość wydajności zależy od tak ważnych parametrów, jak temperatura, ciśnienie itp., wówczas sformułowanie problemu planowania eksperymentu dla produkcja produktu chemicznego może wyglądać następująco: znaleźć optymalną kombinację wymienionych zmiennych kontrolowanych procesu produkcji chemicznej, które zapewnią maksymalną wydajność gotowego produktu o wymaganej jakości, pod warunkiem, że koszty przeprowadzenia eksperymentu nie będą wyższe niż środki na to przeznaczone.

W przybliżeniu ten sam schemat służy do sformułowania problemu pozyskiwania informacji w przypadku, gdy efekt utożsamia się z dokładnością przewidywania wyniku wyjściowego, to znaczy z wielkością błędu w odtwarzaniu mechanizmu sytuacji, a także sformułowanie problemu, w którym celem decydenta jest dążenie do minimalizacji kosztów modelowania przy jednoczesnym zapewnieniu poziomu roszczeń decydenta co do oczekiwanego efektu.

Najbardziej ogólne podejście do opisu problemów decyzyjnych (DPR) sformułowane jest „w języku systemów”. Podajmy systematyczny opis problemów decyzyjnych.

Niech istnieje pewien system, w którym wyróżnia się podsystem sterowany (obiekt sterowania), podsystem sterowania i środowisko. Podsystem sterowania może oddziaływać na obiekt regulacji wykorzystując alternatywne działania sterujące (rys. 1.2). O stanie obiektu sterującego decydują dwa czynniki: wybrane działanie sterujące z podsystemu sterowania oraz stan otoczenia. Zasadnicza jest okoliczność, że podsystem sterowania nie może oddziaływać na otoczenie, a ponadto z reguły nie posiada pełnej informacji o aktualnym stanie otoczenia.

Podsystem sterowania jest zorientowany na cel, a celem podsystemu sterowania jest przeniesienie obiektu sterowania do jego najbardziej preferowanego stanu (lub do pewnego podzbioru stanów preferowanych). Aby osiągnąć ten cel, podsystem sterowania może wykorzystać dowolne działanie sterujące, jakim dysponuje.

Wybór przez podsystem sterowania określonego działania kontrolnego (wybór akceptowalnej alternatywy) nazywany jest podejmowaniem decyzji.

Podejmując decyzję, głównym zadaniem jest znalezienie optymalnego rozwiązania. Na poziomie merytorycznym rozwiązanie optymalne można określić jako najlepsze w następującym sensie: najbardziej odpowiada ono celowi podsystemu sterowania w zakresie posiadanej informacji o stanie środowiska.

Matematyczny model podejmowania decyzji

Matematyczny model podejmowania decyzji jest sformalizowaniem schematu podanego w opisie systemu ZPR. Aby zbudować matematyczny model podejmowania decyzji, należy określić trzy zbiory:

X– wiele akceptowalnych alternatyw,

Y– zbiór możliwych stanów środowiska,

A– wiele możliwych wyników.

W opisie systemu sterowania alternatywy są interpretowane jako działania kontrolne, a wyniki jako stany kontrolowanego podsystemu.

Opcje działania są zwykle nazywane alternatywami.

Ponieważ stan kontrolowanego podsystemu jest całkowicie zdeterminowany wyborem działania sterującego i stanem środowiska, to każda para (x, y), Gdzie XX I NaY, odpowiada pewnemu wynikowi AA. Innymi słowy, istnieje funkcja F:X X YA, co nazywa się funkcją implementacji. Funkcja implementacyjna przypisuje każdej parze typów (alternatywie, stanowi środowiska) wynik, który określa.

Zbiór obiektów ( X,Y,A,F) stanowi strukturę wdrożeniową ZPR. Struktura wdrożenia odzwierciedla związek pomiędzy wybranymi alternatywami a wynikami.

Struktura implementacyjna problemu decyzyjnego stanowi jego pierwszy element. Drugi element ZPR nazywany jest jego strukturą ewaluacyjną. Jeżeli struktura wdrożeniowa determinuje wynikowy wynik, to struktura ewaluacyjna określa ocenę tego wyniku z punktu widzenia decydenta.

W modelu matematycznym ZPR strukturę oceny można określić na różne sposoby.

Na przykład, jeśli decydent może ocenić skuteczność (równoważne terminy: „użyteczność”, „wartość”) każdego wyniku AA jakiś numer φ (A), wówczas struktura oceny jest określona jako para ( A,φ ), Gdzie φ :AR; w której φ nazywa się funkcją oceny.

Innym sposobem określenia struktury ewaluacji jest wskazanie relacji preferencji wyników, co sprowadza się do zestawienia par wyników A 1 ,A 2 za co A 1 jest lepszy niż A 2 (jest to napisane jako A 1 A 2 i brzmi: „ A 1 bardziej pełen szacunku niż A 2".

Innym sposobem określenia struktury ewaluacji jest podzielenie zestawu wyników A na dwie klasy: A 0 – klasa „złych” wyników i A 1 – klasa „dobrych” wyników.

Istnieją inne sposoby określenia struktury oceny. Najczęstszym jest określenie struktury oceny w postaci funkcji oceny φ .

Funkcja celu F istnieje złożenie funkcji implementacyjnej F i funkcja oceny φ , tj. F=φ F. Zatem, F(x, y)=φ (F(x, y)). Funkcja celu ma następujące znaczenie: liczba f(x, y) jest oceną użyteczności (z punktu widzenia decydenta) wyniku powstającego w sytuacji, gdy wybierze on alternatywę X, a środowisko przejmuje stan Na.

Komentarz. W niektórych zadaniach decyzyjnych ocena wyniku charakteryzuje go w sensie negatywnym, będąc wyrazem kosztów, strat itp. W tym przypadku funkcja celu F zwaną funkcją straty.

Biorąc pod uwagę, że formułowanie problemów, a także metody ich rozwiązywania w istotny sposób zależą od stopnia niepewności parametrów analizowanego układu oraz stanu środowiska zewnętrznego, przedstawiona na rys. 1 klasyfikacja problemów TPR jest generalnie zaakceptowane. 1.3.

Ryż. 1.3.

Problemy pierwszego typu charakteryzują się tym, że wszystkie parametry analizowanego systemu i otoczenia zewnętrznego mają charakter deterministyczny, a poszukiwane rozwiązania mają charakter ciągły lub dyskretny. Najbardziej znane i rozpowszechnione problemy z dyskretnymi wartościami zmiennych to: problem komiwojażera; minimalny problem obejmujący wykres; problem z przypisaniem minimaxa. W szczególności problem doboru składu replikowanych pakietów oprogramowania spełniającego wymagania użytkownika co do funkcjonalności systemu sprowadza się do problemu minimalnego pokrycia grafów oraz problemu zaprojektowania topologii lokalnej sieci komputerowej (LAN) Struktura pierścieniowa standardu Token Ring została zredukowana do dobrze znanego problemu komiwojażera.

Aby rozwiązać te problemy, stosuje się algorytmy Gomoriego, rozgałęzione i powiązane, programowanie dynamiczne, algorytmy heurystyczne, metody wyszukiwania losowego itp. Ostatnio zastosowano algorytmy wyżarzania, algorytmy genetyczne i sieci neuronowe.

Drugi typ problemów dotyczy problemów decyzyjnych w warunkach ryzyka i charakteryzuje się tym, że dla wielu parametrów nie są znane dokładne wartości, ale wyznacza się zakresy ich zmian oraz wyznacza się gęstości rozkładów zmiennych losowych. określone w każdym zakresie. Należy wybrać takie rozwiązanie, które dla zadanych rozkładów prawdopodobieństwa zapewni ekstremum wskaźnika efektywności. Jako wskaźnik wydajności wybiera się średnią lub kombinację średniej i wariancji. Najbardziej znane problemy drugiego typu to problemy zarządzania zapasami, sterowania procesami Markowa, analizy i syntezy systemów kolejkowych itp.

Trzeci typ problemów charakteryzuje się tym, że dla każdego z parametrów określone są możliwe wartości dyskretne i dla nich wyznaczane są wartości wskaźnika efektywności odpowiadające każdemu z alternatywnych rozwiązań, tj. pierwotny problem przedstawiono w formie tabeli, w której wiersze odpowiadają rozwiązaniom alternatywnym, a kolumny odpowiadają wartościom parametrów dyskretnych.

Należy zaznaczyć, że w zagadnieniach tego typu nie ma informacji o rozkładzie prawdopodobieństwa wartości parametrów.

Czwarty typ zadań charakteryzuje się tym, że podejmowanie decyzji przez analityka systemowego odbywa się w warunkach konkurencji pomiędzy przeciwstawnymi stronami. Model gry służy jako schemat podejmowania decyzji.

Należy zaznaczyć, że wymienione typy zadań mogą mieć charakter jednokryterialny lub wielokryterialny. W problemach wielokryterialnych, wybierając alternatywę, analityk dąży do poprawy wartości dwóch lub więcej wskaźników.

Jak powiedzieliśmy pod koniec ostatniej lekcji, podjęcie decyzji to dopiero połowa sukcesu. Druga połowa polega na ocenie, na ile było to poprawne, wierne i skuteczne. Jest to o tyle ważne, że ocena pozwala zrozumieć, na ile kompetentne były podjęte działania, czy zakończą się sukcesem w przyszłości i w ogóle, czy warto na nie liczyć. Ocena podjętych decyzji jest swego rodzaju papierkiem lakmusowym sprawdzającym ich skuteczność. Jednak bardzo ważne jest, aby zrozumieć, że zwykłe decyzje życiowe i decyzje zarządcze są oceniane przy użyciu różnych algorytmów.

Ocena codziennych decyzji

Na początek powtórzmy trochę: jeśli stoisz przed koniecznością podjęcia trudnej decyzji, której konsekwencje Cię niepokoją, przede wszystkim powinieneś kilka razy przemyśleć za i przeciw, ocenić sytuację i możliwe opcje za rozwiązanie tego. podjęcie decyzji jest pierwszym krokiem do jej efektywności.

Ostatecznym produktem analizy podjętej decyzji będzie zawsze wynik. Na jego podstawie będzie można ocenić, czy cel został osiągnięty, jakie środki zostały na jego osiągnięcie wykorzystane, ile wysiłku i czasu włożono w jego realizację, co ostatecznie się wydarzyło i czy gra była warta świeczki.

Jeśli więc podjęta decyzja jest powiązana z jakimikolwiek wymiernymi wielkościami, jej skuteczność można całkiem łatwo obliczyć w jednostkach względnych lub bezwzględnych. Jeśli na przykład zdecydujesz się na osiągnięcie nowego poziomu dochodów, skuteczność swojej decyzji będziesz mógł ocenić po miesiącu lub sześciu miesiącach. Jeśli zdecydujesz się na nową reklamę swojego produktu, możesz zrozumieć, jak skuteczna była ta decyzja, ustalając wzrost liczby klientów, wzrost procentu sprzedaży i zysku netto.

W przypadku, gdy decyzja związana jest z wielkościami nieprzeliczalnymi, jej ocena przebiega inaczej. Musisz zrozumieć, czy osiągnąłeś pierwotnie ustalony wynik. Na przykład, postawiłeś sobie za zadanie zwiększenie osobistej produktywności i rozpoczęcie robienia więcej, zdecydowałeś. Wyniki za tydzień możesz podsumować zaznaczając pola obok zrealizowanych zadań na swojej liście.

W podobny sposób oceniane są decyzje podejmowane w każdej innej dziedzinie życia. Schemat jest niezwykle prosty: cel albo zostaje osiągnięty, albo nie. Jeśli się to uda, zrobiłeś wszystko dobrze, ale jeśli nie, musisz coś zmienić. Ponadto ocenę efektywności można przeprowadzić pod kątem wykorzystanych zasobów: im mniej wysiłku, czasu, pieniędzy i innych środków poświęciłeś na wdrożenie rozwiązania, tym jest ono bardziej efektywne. To proste.

Jak widzimy, w codziennym życiu dość łatwo jest analizować podejmowane decyzje. Istnieje jednak inna kategoria decyzji – decyzje zarządcze, które są znacznie trudniejsze do analizy. Na ten temat napisano całe książki i podręczniki i niestety nie da się omówić wszystkich szczegółów podczas jednej lekcji. Można jednak wskazać podstawy tego procesu. To właśnie zrobimy.

Podstawy oceny decyzji zarządczych

Podjęcie dowolnej decyzji zarządczej można nazwać etapem pośrednim pomiędzy decyzją zarządczą a wpływem na zarządzanie. To z kolei sugeruje, że skuteczność takiego rozwiązania przejawia się w sumie efektywności jego opracowania i wdrożenia.

W sumie istnieje ponad sześć tuzinów różnych prywatnych wskaźników wydajności organizacji. Należą do nich obrót kapitału obrotowego, rentowność, zwrot z inwestycji, stosunek stóp wzrostu wydajności pracy do średnich wynagrodzeń itp.

Ocena efektywności decyzji zarządczych wiąże się z posługiwaniem się koncepcją skumulowanego efektu ekonomicznego, ponieważ Uzyskane wyniki koniecznie uwzględniają wkład pracy ludzi.

Należy również powiedzieć, że dla organizacji bardzo ważne jest spełnianie wymagań klientów, a jednocześnie poprawa wyników ekonomicznych ich działalności. Na tej podstawie przy ocenie efektywności decyzji konieczne staje się uwzględnienie dwóch aspektów efektywności – społecznej i ekonomicznej.

Algorytm oceny efektywności decyzji zarządczych można zilustrować na przykładzie organizacji handlowej. Aby więc zrozumieć, czy decyzja była skuteczna, czy nie, konieczne jest prowadzenie oddzielnej ewidencji przychodów i wydatków dotyczących różnych grup produktów. Biorąc pod uwagę, że jest to bardzo trudne w praktyce, w procesie analizy powszechne jest stosowanie tzw. specyficznych wskaźników jakości. Tutaj są to zysk na 1 milion rubli obrotu handlowego i koszty dystrybucji na 1 milion zapasów.

Skuteczność decyzji zarządczych w organizacjach branżowych wyraża się zbiorczo w formie ilościowej - jest to wzrost wolumenu obrotu, wzrost szybkości obrotu produktami i zmniejszenie wielkości rezerw towarowych.

Jeśli chcesz zrozumieć ostateczny wynik finansowo-ekonomiczny realizacji decyzji zarządczych, powinieneś ustalić, o ile zwiększają się dochody konkretnej organizacji, a o ile zmniejszają się jej wydatki.

Efektywność ekonomiczną decyzji, która wpłynęła na wzrost obrotów handlowych i wzrost zysków, można określić za pomocą wzoru:

Ef P*T P * (Tf - Tpl), gdzie:

  • Ef - wskaźnik efektywności ekonomicznej
  • P - wskaźnik zysku na 1 milion rubli obrotu handlowego
  • T - wskaźnik wzrostu obrotów handlowych
  • Tf – wskaźnik rzeczywistego obrotu handlowego zaobserwowany po wykonaniu decyzji zarządczej
  • Tpl – wskaźnik planowanego obrotu (lub obrotu za porównywalny okres przed wykonaniem decyzji zarządczej)

W tym przykładzie efektywność ekonomiczna odzwierciedla redukcję kosztów dystrybucji (kosztów handlowych, kosztów sprzedaży), które spadają na saldo towarów. Stąd wzrost zysków. Wydajność tutaj określa się według wzoru:

Ef =IO*Z IO*(Z2 - Z1), gdzie:

  • Ef - wskaźnik efektywności ekonomicznej określonej decyzji zarządczej
  • IO - wskaźnik wielkości kosztów dystrybucji na 1 milion rubli zapasów
  • Z - wskaźnik wielkości zmian (zmniejszenia) zapasów
  • 31 - wskaźnik wielkości zapasów przed wykonaniem decyzji zarządczej
  • 32 - wskaźnik wielkości zapasów po wykonaniu decyzji zarządczej

W naszym przypadku efektywność ekonomiczna decyzji zarządczych znalazła także odzwierciedlenie we wzroście tempa obrotu towarowego. Jego wskaźnik można obliczyć korzystając ze wzoru:

Ef Io*Ob Io (Ob f - Ob pl), gdzie:

  • Ef - wskaźnik efektywności ekonomicznej decyzji zarządczej
  • Io - wskaźnik jednoczesnej wielkości kosztów dystrybucji
  • Ob - wskaźnik wzrostu tempa obrotu towarami
  • O pl - wskaźnik obrotu towarowego przed podjęciem decyzji zarządczej
  • O f - wskaźnik obrotu towarowego po podjęciu decyzji zarządczej

Oprócz wszystkiego, aby przeanalizować skuteczność decyzji zarządczych, zwykle stosuje się kilka specjalistycznych metod, które upraszczają procedurę i prowadzą do dokładniejszych wyników.

Metody oceny decyzji zarządczych

W procesie oceny skuteczności decyzji zarządczych stosuje się siedem głównych metod:

  • Metoda indeksowa. Służy do analizy najbardziej złożonych zjawisk z elementami, których nie można zmierzyć. Indeksy pełnią tutaj rolę wskaźników względnych. Pomagają ocenić realizację zaplanowanych zadań oraz określić dynamikę różnych procesów i zjawisk. Metoda indeksowa ma na celu pomóc w rozłożeniu ogólnego wskaźnika na czynniki odchyleń względnych i bezwzględnych.
  • Metoda równowagi. Jego istota polega na tym, że porównuje się powiązane ze sobą wskaźniki efektywności organizacji. Celem jest określenie wpływu poszczególnych czynników i znalezienie rezerw dla zwiększenia efektywności przedsiębiorstwa. Zależność pomiędzy poszczególnymi wskaźnikami reprezentuje równość wyników uzyskanych po pewnych porównaniach.
  • Metoda eliminacji. Uogólnia dwie pierwsze metody i oferuje możliwość określenia wpływu dowolnego czynnika na ogólne wyniki firmy. Zakłada się, że wszystkie pozostałe czynniki funkcjonowały w tym samym środowisku – zgodnie z planem.
  • Metoda graficzna. Jest to sposób na wizualne przedstawienie pracy organizacji, ustalenie zestawu wskaźników i sformalizowanie wyników działań analitycznych.
  • Metoda porównawcza. Daje możliwość oceny wyników firmy, identyfikacji odchyleń rzeczywistych wskaźników od wartości podstawowych, ustalenia ich przyczyn i poszukiwania rezerw dla późniejszego doskonalenia działań.
  • Analiza funkcjonalna i kosztowa. Można to nazwać systematyczną metodą badawczą, stosowaną w oparciu o cel przedmiotu badań. Jego zadaniem jest zwiększenie korzystnego efektu (zwrotu) kosztów całkowitych w całym cyklu życia obiektu. Cechą charakterystyczną jest to, że metoda pozwala ustalić wykonalność szeregu funkcji, jakie będzie pełnił projektowany obiekt w określonym środowisku, a także sprawdzić potrzebę niektórych funkcji obiektu już istniejącego.
  • Metody ekonomiczne i matematyczne. Stosuje się je wówczas, gdy zachodzi konieczność wyboru optymalnych opcji, które determinują specyfikę decyzji zarządczych w bieżących lub przewidywanych warunkach gospodarczych. Istnieje wiele problemów, które można rozwiązać metodami ekonomicznymi i matematycznymi. Należą do nich ustalenie najlepszego asortymentu wytwarzanych wyrobów, ocena planu produkcji, analiza porównawcza efektywności ekonomicznej wykorzystania zasobów, optymalizacja programu produkcyjnego i inne.

Na efektywność pracy organizacji duży wpływ mają decyzje kierownictwa. Dlatego ważne jest, aby w miarę możliwości opanować aparat zarządzania, teorię i praktykę opracowywania i wdrażania rozwiązań. Oznacza to, że trzeba posiadać umiejętność wyboru najlepszej alternatywy spośród kilku opcji.

Wszelkie decyzje zarządcze uwarunkowane są rzetelnością i kompletnością dostępnych danych. Można je zatem przyjąć zarówno w warunkach pewności, jak i w warunkach niepewności.

Podejmowanie decyzji zarządczych jako proces to cykliczna sekwencja działań osoby odpowiedzialnej w celu rozwiązania bieżących problemów. Działania te polegają na analizie sytuacji, opracowaniu możliwych rozwiązań, wyborze i wdrożeniu najlepszego.

Praktyka pokazuje, że podejmowanie decyzji na każdym szczeblu jest obarczone błędami. Wpływ na to ma wiele przyczyn, m.in. rozwój gospodarczy obejmuje wiele różnych sytuacji, które należy rozwiązać.

Szczególne miejsce wśród powodów, dla których decyzje zarządcze okazują się nieskuteczne, jest nieprzestrzeganie lub zwykła nieznajomość technologii ich wytwarzania i późniejszej realizacji. W tym celu zwyczajowo wykorzystuje się informacje teoretyczne, metody i techniki, o których mówiliśmy na poprzednich lekcjach.

Wszystko, co powiedziano powyżej, opisuje oczywiście jedynie podstawowe przesłanki oceny skuteczności decyzji zarządczych. Aby poprawnie zastosować je w praktyce, trzeba albo mieć odpowiednie wykształcenie, albo zanurzyć się w studiowaniu literatury specjalistycznej, bo istnieje ogromna liczba subtelności, niuansów, technik i danych czysto technicznych, które należy przestudiować, przyswoić i opanować. Lekcja ta może służyć jako punkt wyjścia do dalszego zgłębiania specyfiki oceny efektywności decyzji zarządczych.

Na zakończenie naszego kursu chciałbym zwrócić uwagę na jeszcze jeden temat, którego wiedza jest po prostu niezbędna do podejmowania właściwych decyzji w życiu, edukacji i pracy. Jest to temat z psychologii podejmowania decyzji. A rozważymy to z pozycji Daniela Kahnemana, psychologa i jednego z twórców finansów behawioralnych i teorii ekonomii psychologicznej. W swoich wyjaśnieniach irracjonalnych zachowań związanych z podejmowaniem ryzyka w zarządzaniu swoim zachowaniem i podejmowaniu decyzji łączy kognitywistykę i ekonomię. Idee Kahnemana będą dla Ciebie znaczącym wsparciem w poprawie Twojej efektywności.

Chcesz sprawdzić swoją wiedzę?

Jeśli chcesz sprawdzić swoją wiedzę teoretyczną na temat kursu i zrozumieć, czy jest on dla Ciebie odpowiedni, możesz przystąpić do naszego testu. W każdym pytaniu tylko 1 opcja może być prawidłowa. Po wybraniu jednej z opcji system automatycznie przechodzi do kolejnego pytania.

Wyślij swoją dobrą pracę do bazy wiedzy jest prosta. Skorzystaj z poniższego formularza

Studenci, doktoranci, młodzi naukowcy, którzy wykorzystują bazę wiedzy w swoich studiach i pracy, będą Państwu bardzo wdzięczni.

Opublikowano na http://www.allbest.ru/

Osoba polecającaT

Metody matematyczne w podejmowaniu decyzji

Matematyka jako nauka od początku swego istnienia była narzędziem w procesie poszukiwania prawdy, dlatego można przyjąć, że wszelkie operacje matematyczne, nawet te najprostsze, są matematycznymi metodami podejmowania decyzji. Obecnie podejmowanie decyzji rozumiane jest jako szczególny proces działalności człowieka, mający na celu wybór najlepszej opcji (alternatywy) działania. Procesy decyzyjne leżą u podstaw każdej celowej działalności człowieka. Na przykład przy tworzeniu nowych technologii (maszyn, przyrządów, urządzeń), w budownictwie, przy projektowaniu nowych budynków, przy organizacji funkcjonowania i rozwoju procesów społecznych. Stwarza to potrzebę wytycznych dotyczących podejmowania decyzji, które uprościłyby proces i uczyniły decyzje bardziej wiarygodnymi. Oprócz empirycznego postrzegania sytuacji i intuicji, w naszych czasach trudnych sytuacji gospodarczych i procesów zarządzania przedsiębiorstwem menedżerowie potrzebują jakiejś podstawy i „sprawdzonej gwarancji” podjętej decyzji. Nieuchronnie wymagana jest formalizacja procesu decyzyjnego. Z reguły ważne decyzje podejmują doświadczeni ludzie, którzy są dość dalecy od matematyki, a zwłaszcza od jej nowych metod, i którzy bardziej boją się stracić na formalizacji niż zyskać.

Dlatego też nauka ma obowiązek dostarczać wskazówek dotyczących optymalnego podejmowania decyzji. Dawno minęły czasy, gdy właściwe decyzje podejmowano „na wyczucie”, metodą prób i błędów. Dziś opracowanie takiego rozwiązania wymaga naukowego podejścia – straty związane z błędami są zbyt duże. Optymalne rozwiązania pozwalają firmie zapewnić najkorzystniejsze warunki produkcji (maksymalny zysk przy minimalnych kosztach pracy, zasobach materiałowych i pracy).

Obecnie poszukiwanie optymalnych rozwiązań można rozpatrywać w oparciu o działy matematyki klasycznej. Na przykład w statystyce matematycznej w sekcji „podejmowanie decyzji” bada się sposoby przyjęcia lub odrzucenia jakiejś podstawowej hipotezy w obecności konkurencyjnej hipotezy, biorąc pod uwagę funkcję straty. Teoria decyzji rozwija metody statystyki matematycznej – metody testowania hipotez. Różne wartości strat przy wyborze różnych hipotez prowadzą do wyników różniących się od tych uzyskanych metodami statystycznego testowania hipotez. Wybór mniej prawdopodobnej hipotezy może być bardziej preferowany, jeśli straty w przypadku błędu w tym wyborze są mniejsze niż straty spowodowane błędem w wyborze bardziej prawdopodobnej hipotezy konkurencyjnej. Problemy takie nazywane są statystycznymi problemami podejmowania decyzji. Aby rozwiązać te problemy, należy znaleźć minimalną wartość funkcji ryzyka na zbiorze możliwych wyników, tj. rozwiązać problem znalezienia ekstremum warunkowego. Zazwyczaj dla tych zadań można określić cel i określić warunki, tj. ograniczeń, zgodnie z którymi należy je rozwiązać. Podobnymi problemami zajmuje się dział matematyki „programowanie matematyczne”, który z kolei stanowi część działu „badania operacyjne”.

Dane wejściowe to realne zadanie – dowolnie sformułowany zbiór danych o sytuacji problemowej. Pierwszym etapem rozwiązania problemu jest jego sformułowanie – doprowadzenie danych do postaci wygodnej do zbudowania modelu. Model to przybliżona (opisowa) reprezentacja rzeczywistości. Następnie na podstawie skonstruowanego modelu poszukuje się optymalnych rozwiązań i wydaje rekomendacje.

Modele można podzielić na 2 duże grupy:

Modele deterministyczne:

Programowanie liniowe;

Programowanie liczb całkowitych i kombinatoryka;

Teoria grafów;

Przepływy w sieciach;

programowanie geometryczne;

Programowanie nieliniowe;

Programowanie matematyczne;

Optymalna kontrola.

Modele stochastyczne:

Teoria kolejkowania;

Teoria użyteczności;

Teoria decyzji;

Teoria gier i modelowanie gier;

Teoria wyszukiwania;

modelowanie symulacyjne;

Modelowanie dynamiczne.

Przy podejmowaniu decyzji konieczne jest znalezienie optymalnego jakiegoś funkcjonału w postaci deterministycznej lub stochastycznej. Warto zwrócić uwagę na dwie cechy. Po pierwsze, matematyczne metody podejmowania decyzji dla problemów związanych z różnymi obszarami działalności człowieka zaczynają się wzajemnie przenikać, np. problemy sterowania optymalizacyjnego przy przejściu od zmiennych ciągłych do dyskretnych stają się problemami programowania matematycznego (liniowego), oceny separacji funkcjonować

w statystycznych metodach podejmowania decyzji można przeprowadzić za pomocą procedur programowania liniowego lub kwadratowego itp. Po drugie, oryginalne dane liczbowe będące wynikiem pomiarów lub obserwacji

w podejmowaniu decyzji problemy dotyczące sytuacji rzeczywistych nie są deterministyczne, ale częściej są zmiennymi losowymi

ze znanymi lub nieznanymi prawami dystrybucji, dlatego późniejsze przetwarzanie danych wymaga stosowania metod statystyki matematycznej, teorii zbiorów rozmytych lub teorii możliwości.

Metody matematyczne w ekonomii i podejmowaniu decyzji można podzielić na kilka grup:

1. Metody optymalizacji.

2. Metody uwzględniające niepewność, przede wszystkim probabilistyczną i statystyczną.

3. Metody budowy i analizy modeli symulacyjnych,

4. Metody analizy sytuacji konfliktowych (teoria gier).

Metody optymalizacji

Optymalizacja w matematyce to operacja znalezienia ekstremum (minimum lub maksimum) funkcji celu w pewnym obszarze przestrzeni wektorowej ograniczonej zbiorem liniowych lub nieliniowych równości (nierówności).

Programowanie matematyczne zajmuje się teorią i metodami rozwiązywania problemów optymalizacyjnych.

Programowanie matematyczne to dziedzina matematyki rozwijająca teorię i metody numeryczne rozwiązywania wielowymiarowych problemów z ograniczeniami. W przeciwieństwie do matematyki klasycznej, programowanie matematyczne zajmuje się matematycznymi metodami rozwiązywania problemów polegających na znalezieniu najlepszych opcji spośród wszystkich możliwych.

Sformułowanie problemu optymalizacji

W procesie projektowania zadaniem jest zazwyczaj określenie najlepszych w pewnym sensie wartości konstrukcji czy parametrów obiektów. Problem ten nazywa się optymalizacją. Jeżeli optymalizacja wiąże się z obliczeniem optymalnych wartości parametrów dla danej struktury obiektu, wówczas nazywa się ją optymalizacją parametryczną. Problemem wyboru optymalnej konstrukcji jest optymalizacja strukturalna.

Standardowy problem optymalizacji matematycznej jest sformułowany w następujący sposób. Wśród elementów h tworzących zbiory h znajdź element h*, który zapewnia minimalną wartość f (h*) danej funkcji f(h). Aby poprawnie sformułować problem optymalizacji należy ustawić:

1. Dopuszczalny zestaw - zestaw

gra matematyczna z rozwiązaniami

2. Funkcja celu – mapowanie;

3. Kryterium wyszukiwania (maks. lub min.).

Rozwiązanie problemu oznacza wówczas jedno z:

1. Pokaż to.

2. Pokaż, że funkcja celu nie jest ograniczona od dołu.

Jeśli, to znajdź:

Jeżeli minimalizowana funkcja nie jest wypukła, to często ograniczamy się do poszukiwania lokalnych minimów i maksimów: punktów takich, że wszędzie w jakimś sąsiedztwie jest minimum i maksimum.

Jeżeli zbiór jest dopuszczalny, wówczas problem taki nazywany jest problemem optymalizacji nieograniczonej, w przeciwnym wypadku problemem optymalizacji warunkowej.

Klasyfikacja metod optymalizacyjnych

Ogólna notacja problemów optymalizacyjnych określa szeroką gamę ich klas. Wybór metody (skuteczność jej rozwiązania) zależy od klasy problemu. Klasyfikację problemów wyznaczają: funkcja celu oraz obszar wykonalny (wyznaczony przez układ nierówności i równości lub bardziej złożony algorytm).

Metody optymalizacji klasyfikuje się według problemów optymalizacyjnych:

1. Metody lokalne:

zbiegają się do jakiegoś lokalnego ekstremum funkcji celu. W przypadku jednomodalnej funkcji celu ekstremum to jest unikalne i będzie globalnym maksimum/minimum.

2. Metody globalne:

zajmować się wieloekstremalnymi funkcjami celu. W poszukiwaniach globalnych głównym zadaniem jest identyfikacja trendów w globalnym zachowaniu funkcji celu.

Obecnie istniejące metody wyszukiwania można podzielić na trzy duże grupy:

1. deterministyczny;

2. losowy (stochastyczny);

3. połączone.

Ze względu na kryterium wymiaru zbioru wykonalnego metody optymalizacji dzieli się na metody optymalizacji jednowymiarowej i metody optymalizacji wielowymiarowej.

Ze względu na rodzaj funkcji celu i zbiór dopuszczalny problemy optymalizacyjne i metody ich rozwiązywania można podzielić na następujące klasy:

Zagadnienia optymalizacji, w których występuje funkcja celu i ograniczenia funkcje liniowe, są rozwiązywane za pomocą tak zwanych metod programowania liniowego.

W przeciwnym razie zajmij się zadaniem programowanie nieliniowe i zastosować odpowiednie metody. Z kolei wyróżnia się z nich dwa szczególne zadania:

jeżeli i są funkcjami wypukłymi, to taki problem nazywamy problemem programowania wypukłego;

jeśli, to mamy do czynienia z problemem programowania całkowitego (dyskretnego).

Zgodnie z wymaganiami dotyczącymi gładkości i obecności pochodnych cząstkowych w funkcji celu można je również podzielić na:

· metody bezpośrednie wymagające jedynie obliczenia funkcji celu w punktach aproksymacji;

· Metody pierwszego rzędu: wymagają obliczenia pierwszych pochodnych cząstkowych funkcji;

Metody drugiego rzędu: wymagają obliczenia drugich pochodnych cząstkowych, czyli hesjanu funkcji celu.

Ponadto metody optymalizacyjne dzielą się na następujące grupy:

Metody analityczne (np. metoda mnożnika Lagrange'a i warunki Karusha-Kuhna-Tuckera);

Metody numeryczne;

Metody graficzne.

W zależności od charakteru zbioru X problemy programowania matematycznego dzieli się na:

· problemy programowania dyskretnego (lub optymalizacja kombinatoryczna) – jeśli X jest skończone lub przeliczalne;

· problemy programowania liczb całkowitych – jeśli X jest podzbiorem zbioru liczb całkowitych;

· problemy programowania nieliniowego, jeśli więzy lub funkcja celu zawierają funkcje nieliniowe, a X jest podzbiorem skończenie wymiarowej przestrzeni wektorowej.

Jeśli wszystkie ograniczenia i funkcja celu zawierają tylko funkcje liniowe, to jest to problem programowania liniowego.

Ponadto gałęziami programowania matematycznego są programowanie parametryczne, programowanie dynamiczne i programowanie stochastyczne.

Programowanie matematyczne służy do rozwiązywania problemów optymalizacyjnych w badaniach operacyjnych.

Metoda znalezienia ekstremum jest całkowicie zdeterminowana przez klasę problemu. Ale zanim uzyskasz model matematyczny, musisz wykonać 4 etapy modelowania:

1. Określenie granic systemu optymalizacyjnego

Odrzucamy te powiązania obiektu optymalizacji ze światem zewnętrznym, które nie mogą znacząco wpłynąć na wynik optymalizacji, a dokładniej te, bez których rozwiązanie jest uproszczone

2. Dobór zmiennych kontrolowanych

„Zamrażamy” wartości niektórych zmiennych (zmiennych niekontrolowanych). Pozostałym pozostawiamy do przyjęcia dowolne wartości z zakresu możliwych rozwiązań (zmiennych kontrolowanych)

3. Wyznaczanie ograniczeń zmiennych kontrolowanych (równości i/lub nierówności).

Wybór kryterium optymalizacji numerycznej (na przykład wskaźnika wydajności)

4. Utwórz funkcję celu.

Metody probabilistyczno-statystyczne

Istota probabilistyczno-statystycznych metod podejmowania decyzji

W jaki sposób podejścia, idee i wyniki teorii prawdopodobieństwa i statystyki matematycznej są wykorzystywane w procesie decyzyjnym?

Podstawą jest probabilistyczny model rzeczywistego zjawiska lub procesu, tj. model matematyczny, w którym obiektywne zależności są wyrażone w kategoriach teorii prawdopodobieństwa. Prawdopodobieństwa służą przede wszystkim do opisania niepewności, które należy wziąć pod uwagę przy podejmowaniu decyzji. Odnosi się to zarówno do niepożądanych okazji (ryzyka), jak i atrakcyjnych („szczęśliwa szansa”). Czasami losowość jest celowo wprowadzana do sytuacji, np. podczas losowania, losowego wybierania jednostek do kontroli, przeprowadzania loterii lub przeprowadzania badań konsumenckich.

Teoria prawdopodobieństwa pozwala na wykorzystanie jednego prawdopodobieństwa do obliczenia innych, interesujących badacza. Przykładowo, korzystając z prawdopodobieństwa zdobycia herbu, możesz obliczyć prawdopodobieństwo, że w 10 rzutach monetą otrzymasz co najmniej 3 herby. Obliczenie takie opiera się na modelu probabilistycznym, zgodnie z którym rzuty monetą opisywane są wzorem niezależnych prób, ponadto herb i znaki krzyżyka są jednakowo możliwe, a zatem prawdopodobieństwo każdego z tych zdarzeń jest równe do ½. Bardziej złożony model to taki, który zamiast rzucać monetą uwzględnia sprawdzenie jakości jednostki produkcyjnej. Odpowiedni model probabilistyczny opiera się na założeniu, że kontrola jakości różnych jednostek produkcyjnych jest opisana przez niezależny schemat testowania. W odróżnieniu od modelu rzutu monetą konieczne jest wprowadzenie nowego parametru – prawdopodobieństwa P, że jednostka produkcyjna jest wadliwa. Model zostanie w pełni opisany, jeśli założymy, że wszystkie jednostki produkcyjne mają takie samo prawdopodobieństwo wadliwości. Jeśli ostatnie założenie jest błędne, wówczas liczba parametrów modelu wzrasta. Można na przykład założyć, że każda jednostka produkcyjna ma swoje własne prawdopodobieństwo, że będzie wadliwa.

Omówmy model kontroli jakości ze wspólnym dla wszystkich jednostek produkcji prawdopodobieństwem wadliwości P. Aby „dotrzeć do liczby” analizując model, należy zastąpić P jakąś konkretną wartością. W tym celu należy wyjść poza model probabilistyczny i sięgnąć do danych uzyskanych podczas kontroli jakości. Statystyka matematyczna rozwiązuje problem odwrotny w stosunku do teorii prawdopodobieństwa. Jego celem jest wyciągnięcie na podstawie wyników obserwacji (pomiarów, analiz, testów, eksperymentów) wniosków na temat prawdopodobieństw leżących u podstaw modelu probabilistycznego. Na przykład, na podstawie częstotliwości występowania wadliwych produktów podczas kontroli, można wyciągnąć wnioski na temat prawdopodobieństwa wystąpienia wadliwości (patrz twierdzenie Bernoulliego powyżej). Na podstawie nierówności Czebyszewa wyciągnięto wnioski na temat zgodności częstotliwości występowania produktów wadliwych z hipotezą, że prawdopodobieństwo wadliwości przyjmuje określoną wartość.

Zatem zastosowanie statystyki matematycznej opiera się na probabilistycznym modelu zjawiska lub procesu. Stosowane są dwie równoległe serie pojęć - te związane z teorią (model probabilistyczny) i te związane z praktyką (próbkowanie wyników obserwacji). Na przykład prawdopodobieństwo teoretyczne odpowiada częstotliwości znalezionej w próbce. Oczekiwanie matematyczne (szereg teoretyczny) odpowiada średniej arytmetycznej próbki (szereg praktyczny). Z reguły charakterystyka próbki jest oceną charakterystyki teoretycznej. Jednocześnie wielkości związane z szeregami teoretycznymi „siedzą w głowach badaczy”, odnoszą się do świata idei (według starożytnego greckiego filozofa Platona) i nie są dostępne do bezpośredniego pomiaru. Badacze dysponują jedynie przykładowymi danymi, na podstawie których próbują ustalić właściwości interesującego ich teoretycznego modelu probabilistycznego.

Dlaczego potrzebujemy modelu probabilistycznego? Faktem jest, że tylko za jego pomocą właściwości ustalone na podstawie analizy konkretnej próbki można przenieść na inne próbki, a także na całą tzw. Populację ogólną. Terminu „populacja” używa się w odniesieniu do dużego, ale skończonego zbioru badanych jednostek. Na przykład o całości wszystkich mieszkańców Rosji lub o całości wszystkich konsumentów kawy rozpuszczalnej w Moskwie. Celem badań marketingowych lub socjologicznych jest przeniesienie wypowiedzi uzyskanych z próby kilkuset lub tysięcy osób na populacje kilkumilionowe. W kontroli jakości partia produktów pełni rolę populacji ogólnej.

Przeniesienie wniosków z próby na większą populację wymaga przyjęcia pewnych założeń dotyczących związku cech próby z cechami tej większej populacji. Założenia te opierają się na odpowiednim modelu probabilistycznym.

Oczywiście możliwe jest przetwarzanie przykładowych danych bez stosowania tego czy innego modelu probabilistycznego. Można na przykład obliczyć średnią arytmetyczną próbki, policzyć częstotliwość spełnienia określonych warunków itp. Wyniki obliczeń będą jednak odnosić się tylko do konkretnej próby, przenoszenie wniosków uzyskanych za ich pomocą na jakąkolwiek inną populację jest niewłaściwe. Czynność tę nazywa się czasami „analizą danych”. W porównaniu z metodami probabilistyczno-statystycznymi analiza danych ma ograniczoną wartość edukacyjną.

Istotą probabilistyczno-statystycznych metod podejmowania decyzji jest więc stosowanie modeli probabilistycznych, opartych na estymacji i testowaniu hipotez z wykorzystaniem charakterystyki próby.

Podkreślamy, że logika wykorzystania cech próbki do podejmowania decyzji w oparciu o modele teoretyczne polega na jednoczesnym wykorzystaniu dwóch równoległych ciągów pojęć, z których jeden odpowiada modelom probabilistycznym, a drugi danym próbnym. Niestety, w wielu źródłach literackich, zwykle przestarzałych lub pisanych w duchu receptury, nie dokonuje się rozróżnienia między charakterystyką próbną a charakterystyką teoretyczną, co prowadzi czytelników do zamieszania i błędów w praktycznym stosowaniu metod statystycznych.

Zastosowanie określonej metody probabilistyczno-statystycznej składa się z trzech etapów:

1. Przejście od rzeczywistości ekonomicznej, zarządczej, technologicznej do abstrakcyjnego schematu matematyczno-statystycznego, czyli zbudowanie probabilistycznego modelu układu sterowania, procesu technologicznego, procedury podejmowania decyzji, w szczególności w oparciu o wyniki kontroli statystycznej, i tym podobne.

2. Przeprowadzanie obliczeń i wyciąganie wniosków środkami czysto matematycznymi w ramach modelu probabilistycznego.

3. Interpretacja wniosków matematycznych i statystycznych w odniesieniu do sytuacji rzeczywistej i podjęcie właściwej decyzji (np. o zgodności lub niezgodności jakości produktu z założonymi wymaganiami, konieczności dostosowania procesu technologicznego), w szczególności wnioski (od proporcji wadliwych jednostek produktu w partii, od określonego rodzaju praw rozkładu kontrolowanych parametrów procesu itp.).

Statystyka matematyczna wykorzystuje pojęcia, metody i wyniki teorii prawdopodobieństwa. Następnie rozważamy główne zagadnienia konstruowania modeli probabilistycznych w różnych przypadkach. Podkreślamy, że do aktywnego i prawidłowego korzystania z dokumentów regulacyjnych, technicznych, instruktażowych i metodologicznych dotyczących probabilistycznych metod statystycznych wymagana jest wstępna wiedza. Trzeba zatem wiedzieć, w jakich warunkach dany dokument powinien być używany, jakie dane wstępne są potrzebne do jego wyboru i zastosowania, jakie decyzje należy podjąć na podstawie wyników przetwarzania danych itp.

Przyjrzyjmy się kilku przykładom, w których modele probabilistyczno-statystyczne są dobrym sposobem rozwiązywania problemów.

W powieści Aleksieja Nikołajewicza Tołstoja „Przechodząc przez męki” (tom 1) jest powiedziane: „warsztat produkuje dwadzieścia trzy procent defektów, trzymaj się tej liczby” – Strukow powiedział Iwanowi Iljiczowi. Jak rozumieć te słowa w rozmowie menadżerów zakładów? Jednostka produkcyjna nie może być wadliwa w 23%. Może być dobry lub wadliwy. Strukow prawdopodobnie sądził, że wielkoseryjna partia zawiera około 23% wadliwych jednostek produkcyjnych. Powstaje zatem pytanie: co oznacza „w przybliżeniu”? Niech 30 na 100 sprawdzonych jednostek produkcyjnych okaże się wadliwych, albo na 1000 - 300, albo na 100 000 - 30 000... Czy Strukovowi należy zarzucać kłamstwo?

Moneta używana do rzutu musi być „symetryczna”: średnio w połowie rzutów powinna wypaść orzeł, a w połowie przypadków reszka. Ale co oznacza „średnio”? Jeśli przeprowadzisz wiele serii po 10 rzutów w każdej serii, często spotkasz serie, w których moneta wyląduje na orle 4 razy. W przypadku monety symetrycznej stanie się to w 20,5% przebiegów. A jeśli w 100 000 rzutach wypadnie 40 000 orłów, czy monetę można uznać za symetryczną? Procedura decyzyjna opiera się na teorii prawdopodobieństwa i statystyce matematycznej.

Przykład może wydawać się niepoważny. To jest źle. Losowanie jest szeroko stosowane w organizowaniu przemysłowych eksperymentów wykonalności. Np. przy przetwarzaniu wyników pomiaru wskaźnika jakości (momentu tarcia) łożysk w zależności od różnych czynników technologicznych (wpływ środowiska konserwacji, metody przygotowania łożysk przed pomiarem, wpływ obciążenia łożyska w procesie pomiaru itp.). ). Załóżmy, że chcesz porównać jakość łożysk w zależności od wyników przechowywania ich w różnych olejach konserwujących. Planując taki eksperyment pojawia się pytanie, które łożyska umieścić w oleju o jednym składzie, a które w innym, ale w taki sposób, aby uniknąć subiektywizmu i zapewnić obiektywność podjętej decyzji. Odpowiedź można uzyskać poprzez losowanie.

Podobny przykład można podać w przypadku kontroli jakości dowolnego produktu. Aby zdecydować, czy kontrolowana partia produktów spełnia ustalone wymagania, wybiera się z niej reprezentatywną część i na podstawie tej próbki oceniana jest cała partia. Dlatego pożądane jest, aby każda jednostka w kontrolowanej partii miała takie samo prawdopodobieństwo wybrania. W warunkach produkcyjnych dobór jednostek produkcji odbywa się zwykle nie w drodze losowania, ale za pomocą specjalnych tablic liczb losowych lub za pomocą komputerowych czujników liczb losowych.

Podobne problemy z zapewnieniem obiektywizmu porównania pojawiają się przy porównywaniu różnych schematów organizacji produkcji, wynagradzania, podczas przetargów i konkursów oraz przy wyborze kandydatów na wolne stanowiska. Wszędzie potrzebujemy remisu lub podobnych środków.

Niech przy organizacji turnieju według systemu olimpijskiego konieczne będzie wskazanie najsilniejszej i drugiej najsilniejszej drużyny (przegrany zostaje wyeliminowany). Załóżmy, że silniejszy zespół zawsze pokonuje słabszego. Wiadomo, że najsilniejszy zespół z pewnością zostanie mistrzem. Druga najsilniejsza drużyna dotrze do finału tylko wtedy, gdy przed finałem nie rozegra żadnych meczów z przyszłym mistrzem. Jeżeli taki mecz będzie zaplanowany, to druga najsilniejsza drużyna nie dostanie się do finału. Ten, kto planuje turniej, może albo „wybić” z turnieju drugą najsilniejszą drużynę przed terminem, stawiając ją przeciwko liderowi już na pierwszym spotkaniu, albo zapewnić jej drugie miejsce, zapewniając spotkania ze słabszymi zespołami aż do samego końca. finał. Aby uniknąć subiektywizmu przeprowadza się losowanie. W przypadku turnieju na 8 drużyn prawdopodobieństwo, że dwie najsilniejsze drużyny spotkają się w finale, wynosi 4 do 7. W związku z tym istnieje prawdopodobieństwo 3 do 7, że druga najsilniejsza drużyna opuści turniej wcześniej.

Przy każdym pomiarze jednostek produkcyjnych (za pomocą suwmiarki, mikrometru, amperomierza...) pojawiają się błędy. Aby ustalić, czy występują błędy systematyczne, należy wielokrotnie mierzyć jednostki produktu, którego cechy są znane (na przykład próbka standardowa). Należy pamiętać, że oprócz błędu systematycznego występuje również błąd losowy.

Powstaje pytanie, jak zidentyfikować błędy systematyczne na podstawie pomiarów. Jeśli tylko odnotujemy, czy błąd uzyskany podczas kolejnego pomiaru jest dodatni czy ujemny, to problem ten można sprowadzić do już rozważanego. Rzeczywiście, porównajmy pomiar do rzutu monetą: błąd dodatni ma miejsce, gdy wyląduje na orle, błąd ujemny, gdy wyląduje na reszce (błąd zerowy przy wystarczającej liczbie działek skali prawie nigdy nie występuje). Wówczas sprawdzenie braku błędu systematycznego jest równoznaczne ze sprawdzeniem symetrii monety.

Zatem zadanie sprawdzenia błędu systematycznego sprowadza się do zadania sprawdzenia symetrii monety. Powyższe rozumowanie prowadzi do tzw. „kryterium znaku” w statystyce matematycznej.

W statystycznej regulacji procesów technologicznych, w oparciu o metody statystyki matematycznej, opracowywane są zasady i plany statystycznego sterowania procesami, mające na celu wczesne wykrywanie problemów w procesach technologicznych i podejmowanie działań korygujących je oraz zapobiegających uwalnianiu produktów, które nie spełniać ustalone wymagania. Działania te mają na celu zmniejszenie kosztów produkcji i strat wynikających z dostaw jednostek niskiej jakości. Podczas statystycznej kontroli akceptacji, w oparciu o metody statystyki matematycznej, opracowywane są plany kontroli jakości poprzez analizę próbek z partii produktów. Trudność polega na możliwości prawidłowego zbudowania probabilistyczno-statystycznych modeli podejmowania decyzji. W statystyce matematycznej opracowano w tym celu modele probabilistyczne i metody testowania hipotez, w szczególności hipotez, że udział wadliwych jednostek produkcji jest równy pewnej liczbie, na przykład .

Teoria gry

Teoria gier to matematyczna metoda badania optymalnych strategii w grach. Gra to proces, w którym każda z uczestniczących stron (dwie lub więcej) walczy o swoje interesy. Każda ze stron dąży do własnych celów i stosuje określoną strategię, co z kolei może prowadzić do wygranej lub przegranej (wynik zależy od innych graczy. Teoria gier daje możliwość wyboru najlepszej strategii, biorąc pod uwagę wyobrażenia o innych graczach, ich możliwościach) i możliwe działania.

Teoria gier jest gałęzią matematyki stosowanej, a dokładniej badań operacyjnych. Najczęściej metody teorii gier wykorzystywane są w ekonomii, nieco rzadziej w innych naukach społecznych – socjologii, politologii, psychologii, etyce, prawoznawstwie i innych. Od lat 70. XX wieku została przyjęta przez biologów do badania zachowań zwierząt i teorii ewolucji. Jest to bardzo ważne dla sztucznej inteligencji i cybernetyki, szczególnie przy zainteresowaniu inteligentnymi agentami.

Optymalne rozwiązania lub strategie w modelowaniu matematycznym zaproponowano już w XVIII wieku. W XIX wieku rozważano problemy produkcji i cen w warunkach oligopolu, które później stały się podręcznikowymi przykładami teorii gier. A. Cournota i J. Bertranda. Na początku XX wieku. E. Lasker, E. Zermelo, E. Borel wysunęli ideę matematycznej teorii konfliktu interesów.

Matematyczna teoria gier wywodzi się z ekonomii neoklasycznej. Matematyczne aspekty i zastosowania tej teorii zostały po raz pierwszy opisane w klasycznej książce Johna von Neumanna i Oscara Morgensterna z 1944 r., The Theory of Games and Economic Behaviour.

Ta dziedzina matematyki znalazła pewne odbicie w kulturze publicznej. W 1998 roku amerykańska pisarka i dziennikarka Sylvia Nasar opublikowała książkę o losach Johna Nasha, laureata Nagrody Nobla w dziedzinie ekonomii i naukowca zajmującego się teorią gier; a w 2001 roku na podstawie książki powstał film „Piękny umysł”. Niektóre amerykańskie programy telewizyjne, takie jak Friend or Foe, Alias ​​czy NUMBERS, okresowo nawiązują do teorii w swoich odcinkach.

J. Nash napisał rozprawę z teorii gier w 1949 r., a 45 lat później otrzymał Nagrodę Nobla w dziedzinie ekonomii. J. Nash po ukończeniu Carnegie Polytechnic Institute z dwoma stopniami – licencjatem i tytułem magistra – wstąpił na Uniwersytet Princeton, gdzie uczęszczał na wykłady Johna von Neumanna. W swoich pismach J. Nash rozwinął zasady „dynamiki menedżerskiej”. Pierwsze koncepcje teorii gier analizowały gry o sumie zerowej, w których ich kosztem są przegrani i zwycięzcy. Nash opracowuje metody analizy, w których wszyscy zaangażowani albo wygrywają, albo przegrywają. Sytuacje te nazywane są „równowagą Nasha” lub „równowagą niekooperacyjną”; w tej sytuacji strony stosują optymalną strategię, która prowadzi do powstania stabilnej równowagi. Utrzymanie tej równowagi jest korzystne dla graczy, gdyż każda zmiana pogorszy ich sytuację. Prace J. Nasha wniosły poważny wkład w rozwój teorii gier, zrewidowano matematyczne narzędzia modelowania ekonomicznego. J. Nash pokazuje, że klasyczne podejście A. Smitha do rywalizacji, w której każdy jest dla siebie, nie jest optymalne. Bardziej optymalne strategie mają miejsce wtedy, gdy każdy stara się działać lepiej dla siebie, jednocześnie robiąc lepiej dla innych.

Chociaż teoria gier pierwotnie zajmowała się modelami ekonomicznymi, pozostała formalną teorią w matematyce aż do lat pięćdziesiątych XX wieku. Ale już od lat 50. zaczynają się próby zastosowania metod teorii gier nie tylko w ekonomii, ale także w biologii, cybernetyce, technologii i antropologii. Podczas II wojny światowej i bezpośrednio po niej wojsko poważnie zainteresowało się teorią gier, widząc w niej potężne narzędzie do badania decyzji strategicznych.

W latach 1960-1970 zainteresowanie teorią gier słabnie, pomimo uzyskanych wówczas znaczących wyników matematycznych. Od połowy lat 80. rozpoczyna się aktywne praktyczne wykorzystanie teorii gier, zwłaszcza w ekonomii i zarządzaniu. W ciągu ostatnich 20-30 lat znacznie wzrosło znaczenie i zainteresowanie teorią gier, a niektóre obszary współczesnej teorii ekonomii nie mogą być prezentowane bez wykorzystania teorii gier.

Istotnym wkładem w zastosowanie teorii gier była praca Thomasa Schellinga, laureata Nagrody Nobla w dziedzinie ekonomii z 2005 r., „Strategia konfliktu”. T. Schelling rozważa różne „strategie” postępowania uczestników konfliktu. Strategie te pokrywają się z taktyką zarządzania konfliktem i zasadami analizy konfliktów w konfliktologii (dyscyplina psychologiczna) i zarządzaniu konfliktami w organizacjach (teoria zarządzania). W psychologii i innych naukach słowo „gra” używane jest w innych znaczeniach niż w matematyce. Niektórzy psychologowie i matematycy są sceptyczni co do używania tego terminu w innych, wcześniej ustalonych znaczeniach. Kulturowa koncepcja zabawy została podana w twórczości Johana Huizingi „Homo Ludens” (artykuły z historii kultury), autor mówi o zastosowaniu gier w sprawiedliwości, kulturze, etyce oraz o tym, że gra jest starsza niż sam człowiek , ponieważ zwierzęta też się bawią. Pojęcie zabawy można znaleźć w koncepcji Erica Burna „Gry, w które grają ludzie, ludzie, którzy grają w gry”. Są to gry czysto psychologiczne, oparte na analizie transakcyjnej. Koncepcja gry J. Hözinga różni się od interpretacji gry w teorii konfliktu i matematycznej teorii gier. Gry służą również do nauki w sprawach biznesowych, seminariach GP. Szczedrowickiego, twórcy podejścia organizacyjno-aktywnego. Podczas pierestrojki w ZSRR G.P. Shchedrovitsky grał wiele gier z sowieckimi menedżerami. Pod względem intensywności psychologicznej ODI (gry aktywności organizacyjnej) były tak silne, że posłużyły jako potężny katalizator zmian w ZSRR. Teraz w Rosji istnieje cały ruch ODI. Krytycy zwracają uwagę na sztuczną wyjątkowość ODI. Podstawą ODI było Moskiewskie Koło Metodologiczne (MMK).

Matematyczna teoria gier rozwija się obecnie szybko i rozważa się gry dynamiczne. Jednakże aparat matematyczny teorii gier jest kosztowny. Wykorzystuje się go do uzasadnionych zadań: polityki, ekonomii monopoli i podziału siły rynkowej itp. Wielu znanych naukowców zostało laureatami Nagrody Nobla w dziedzinie ekonomii za wkład w rozwój teorii gier, która opisuje procesy społeczno-gospodarcze. J. Nash dzięki swoim badaniom z zakresu teorii gier stał się jednym z czołowych ekspertów w dziedzinie zimnej wojny, co potwierdza skalę problemów, którymi zajmuje się teoria gier.

Laureatami Nagrody Nobla w dziedzinie ekonomii za osiągnięcia w dziedzinie teorii gier i teorii ekonomii są: Robert Aumann, Reinhard Selten, John Nash, John Harsanyi, William Vickrey, James Mirrlees, Thomas Schelling, George Akerlof, Michael Spence, Joseph Stiglitz, Leonid Hurwitz, Eric Maskin, Roger Myerson, Lloyd Shapley, Alvin Roth, Jean Tirole.

Prezentacja gry

Gry to ściśle określone obiekty matematyczne. Gra składa się z graczy, zestawu strategii dla każdego gracza oraz wypłat, czyli wypłat, dla każdej kombinacji strategii. Większość gier kooperacyjnych opisuje się za pomocą charakterystycznej funkcji, podczas gdy w przypadku innych typów częściej używa się formy normalnej lub rozszerzonej. Cechy charakterystyczne gry jako matematycznego modelu sytuacji:

1. Obecność kilku uczestników;

2. Niepewność w zachowaniu uczestników związana z występowaniem kilku opcji dla każdego z nich;

3. Różnica (rozbieżność) interesów uczestników;

4. Wzajemne powiązanie zachowań uczestników, ponieważ wynik uzyskany przez każdego z nich zależy od zachowania wszystkich uczestników;

5. Dostępność zasad postępowania znanych wszystkim uczestnikom.

Rozbudowana forma

Gra " Ultimatum» w formie rozbudowanej

Gry w formie rozbudowanej lub rozszerzonej są reprezentowane w formie zorientowanego drzewa, w którym każdy wierzchołek odpowiada sytuacji, w której gracz wybiera swoją strategię. Każdemu graczowi przypisany jest cały poziom wierzchołków. Płatności rejestrowane są na dole drzewa, pod każdym wierzchołkiem liścia.

Zdjęcie po lewej stronie przedstawia grę dla dwóch graczy. Gracz 1 idzie pierwszy i wybiera strategię F lub U. Gracz 2 analizuje swoją pozycję i decyduje, czy wybrać strategię A, czy R. Najprawdopodobniej pierwszy gracz wybierze U, a drugi - A (dla każdego z nich są to strategie optymalne ); wówczas otrzymają odpowiednio 8 i 2 punkty.

Rozbudowana forma jest bardzo wizualna i jest szczególnie przydatna do przedstawiania gier z więcej niż dwoma graczami i gier z sekwencyjnymi ruchami. Jeśli uczestnicy wykonują ruchy jednocześnie, odpowiednie wierzchołki są albo połączone linią przerywaną, albo obrysowane linią ciągłą.

Normalna forma gry

W normalnej lub strategicznej formie gra jest opisana przez macierz wypłat. Każda strona (dokładniej wymiar) macierzy jest graczem, wiersze określają strategie pierwszego gracza, a kolumny określają strategie drugiego gracza. Na przecięciu obu strategii możesz zobaczyć wygrane, które otrzymają gracze. W przykładzie po prawej stronie, jeśli gracz 1 wybierze pierwszą strategię, a gracz 2 drugą strategię, to na skrzyżowaniu widzimy (?1, ?1), co oznacza, że ​​w wyniku ruchu obaj gracze stracili jeden punkt.

Gracze wybrali dla siebie strategie z maksymalnym wynikiem, ale przegrali z powodu nieznajomości ruchu drugiego gracza. Zazwyczaj normalna forma reprezentuje gry, w których ruchy są wykonywane jednocześnie lub przynajmniej zakłada się, że wszyscy gracze nie są świadomi tego, co robią pozostali uczestnicy. Takie gry z niepełnymi informacjami zostaną omówione poniżej.

Funkcja charakterystyczna

W grach kooperacyjnych z użytecznością zbywalną, czyli możliwością transferu środków od jednego gracza do drugiego, nie da się zastosować koncepcji płatności indywidualnych. Zamiast tego używana jest tzw. funkcja charakterystyczna, która określa wypłatę każdej koalicji graczy. Zakłada się, że zysk pustej koalicji wynosi zero.

Podstawę tego podejścia można znaleźć w książce von Neumanna i Morgensterna. Badając normalną formę gier koalicyjnych, doszli do wniosku, że jeśli w grze z dwiema stronami tworzy się koalicja C, wówczas koalicja N\C jest temu przeciwna. To jak gra dla dwóch graczy. Ponieważ jednak opcji możliwych koalicji jest wiele (mianowicie 2BA, gdzie N jest liczbą graczy), zysk dla C będzie miał pewną charakterystyczną wartość zależną od składu koalicji. Formalnie grę w tej formie (zwaną także grą TU) reprezentuje para (N, v), gdzie N jest zbiorem wszystkich graczy, a v: 2N > R jest funkcją charakterystyczną.

Tę formę reprezentacji można stosować we wszystkich grach, łącznie z grami, które nie mają zbywalnej użyteczności. Obecnie istnieją sposoby na konwersję dowolnej gry z postaci normalnej do postaci charakterystycznej, ale odwrotna transformacja nie jest możliwa we wszystkich przypadkach.

Zastosowanie teorii gier

Teoria gier, jako jedno z podejść w matematyce stosowanej, służy do badania zachowań ludzi i zwierząt w różnych sytuacjach. Początkowo w ramach nauk ekonomicznych zaczęła rozwijać się teoria gier, pozwalająca zrozumieć i wyjaśnić zachowanie podmiotów ekonomicznych w różnych sytuacjach. Później zakres teorii gier został rozszerzony na inne nauki społeczne; Teoria gier jest obecnie wykorzystywana do wyjaśniania ludzkich zachowań w naukach politycznych, socjologii i psychologii. Analiza teorii gier została po raz pierwszy zastosowana do opisu zachowań zwierząt przez Ronalda Fishera w latach trzydziestych XX wieku (chociaż nawet Karol Darwin używał koncepcji teorii gier bez formalnego uzasadnienia). Termin „teoria gier” nie pojawia się w pracach Ronalda Fishera. Niemniej jednak prace zasadniczo przeprowadzono zgodnie z analizą z zakresu teorii gier. Postępy dokonane w ekonomii zostały zastosowane przez Johna Maynarda Smitha w jego książce Ewolucja i teoria gier. Teoria gier służy nie tylko do przewidywania i wyjaśniania zachowań; Podejmowano próby wykorzystania teorii gier do opracowania teorii etycznego lub standardowego zachowania. Ekonomiści i filozofowie wykorzystali teorię gier, aby lepiej zrozumieć dobre zachowanie. Ogólnie rzecz biorąc, pierwsze argumenty z teorii gier wyjaśniające prawidłowe zachowanie sformułował Platon.

Opis i modelowanie

Teoria gier była pierwotnie używana do opisu i modelowania zachowań populacji ludzkich. Niektórzy badacze uważają, że wyznaczając równowagę odpowiednich gier, można przewidzieć zachowanie populacji ludzkiej w sytuacjach realnej konfrontacji. Takie podejście do teorii gier było ostatnio krytykowane z kilku powodów. Po pierwsze, założenia stosowane w modelowaniu często są łamane w prawdziwym życiu. Badacze mogą zakładać, że gracze wybierają zachowania, które maksymalizują ich całkowitą korzyść (ekonomiczny model człowieka), jednak w praktyce ludzkie zachowania często nie spełniają tego założenia. Istnieje wiele wyjaśnień tego zjawiska – irracjonalność, symulacja dyskusji, a nawet różne motywy działania graczy (w tym altruizm). Autorzy modeli teorii gier przeciwstawiają się temu, twierdząc, że ich założenia są podobne do podobnych założeń w fizyce. Dlatego nawet jeśli ich założenia nie zawsze są spełnione, teorię gier można wykorzystać jako rozsądny model idealny, podobny do tych samych modeli w fizyce. Jednak teoria gier spotkała się z nową falą krytyki, gdy eksperymenty wykazały, że ludzie w praktyce nie stosują strategii równowagi. Na przykład w grach „Stonoga” i „Dyktator” uczestnicy często nie korzystają z profilu strategii stanowiącego równowagę Nasha. Trwa debata na temat znaczenia takich eksperymentów. Inny pogląd jest taki, że równowaga Nasha nie jest przewidywaniem oczekiwanego zachowania, wyjaśnia jedynie, dlaczego populacje znajdujące się już w równowadze Nasha pozostają w tym stanie. Jednakże pytanie, w jaki sposób te populacje osiągają równowagę Nasha, pozostaje otwarte. Niektórzy badacze zwrócili się ku ewolucyjnej teorii gier, aby odpowiedzieć na to pytanie. Modele ewolucyjnej teorii gier zakładają ograniczoną racjonalność lub irracjonalność graczy. Wbrew nazwie ewolucyjna teoria gier zajmuje się nie tylko i nie tyle kwestiami doboru naturalnego gatunków biologicznych. Ta gałąź teorii gier bada modele ewolucji biologicznej i kulturowej, a także modele procesu uczenia się.

Analiza normatywna (identyfikacja najlepszego zachowania)

Z drugiej strony wielu badaczy postrzega teorię gier nie jako narzędzie do przewidywania zachowań, ale jako narzędzie do analizy sytuacji w celu zidentyfikowania najlepszego zachowania dla racjonalnego gracza. Ponieważ równowaga Nasha obejmuje strategie, które są najlepszą reakcją na zachowanie drugiego gracza, wykorzystanie koncepcji równowagi Nasha do selekcji zachowań wydaje się całkiem rozsądne. Jednak takie wykorzystanie modeli teorii gier również było krytykowane. Po pierwsze, w niektórych przypadkach graczowi opłaca się wybrać strategię, która nie jest częścią równowagi, jeśli spodziewa się, że inni gracze również nie będą stosować strategii równowagi. Po drugie, słynna gra „Dylemat więźnia” pozwala nam podać kolejny kontrprzykład. W dylemacie więźnia kierując się własnym interesem, obaj gracze znajdują się w gorszej sytuacji, niż gdyby poświęcili własny interes.

Spółdzielczy i niekooperatywny

Gra nazywa się kooperacją lub koalicją, jeśli gracze mogą tworzyć grupy, podejmować określone zobowiązania wobec innych graczy i koordynować ich działania. Różni się to od gier niekooperacyjnych, w których każdy musi grać dla siebie. Gry rozrywkowe rzadko mają charakter kooperacyjny, ale takie mechanizmy nie są rzadkością w życiu codziennym.

Często zakłada się, że tym, co wyróżnia gry kooperacyjne, jest zdolność graczy do komunikowania się ze sobą. Generalnie nie jest to prawdą. Są gry, w których komunikacja jest dozwolona, ​​ale gracze dążą do osobistych celów i odwrotnie.

Z tych dwóch typów gier, gry niekooperacyjne opisują sytuacje bardzo szczegółowo i dają dokładniejsze wyniki. Kooperatywy traktują proces gry jako całość. Próby połączenia obu podejść przyniosły wymierne rezultaty. Tak zwany program Nasha znalazł już rozwiązania dla niektórych gier kooperacyjnych jako sytuacje równowagi gier niekooperacyjnych.

Gry hybrydowe zawierają elementy gier kooperacyjnych i niekooperacyjnych. Na przykład gracze mogą tworzyć grupy, ale gra będzie toczyć się w stylu niekooperacyjnym. Oznacza to, że każdy gracz będzie realizował interesy swojej grupy, starając się jednocześnie osiągnąć osobisty zysk.

Symetryczne i asymetryczne

Gra asymetryczna

Gra będzie symetryczna, gdy odpowiednie strategie graczy będą równe, czyli mają takie same wypłaty. Innymi słowy, jeśli gracze będą mogli zmieniać miejsca, a ich wygrane za te same ruchy nie ulegną zmianie. Wiele badanych gier dwuosobowych jest symetrycznych. W szczególności są to: „Dylemat więźnia”, „Polowanie na jelenie”, „Jastrzębie i gołębie”. Do gier asymetrycznych zalicza się „Ultimatum” lub „Dyktator”.

W przykładzie po prawej stronie gra na pierwszy rzut oka może wydawać się symetryczna ze względu na podobne strategie, jednak tak nie jest – w końcu wypłata drugiego gracza o profilach strategii (A, A) i (B, B) będzie większa niż pierwsza.

O sumie zerowej i niezerowej

Gry o sumie zerowej to szczególny rodzaj gier o sumie stałej, to znaczy takich, w których gracze nie mogą zwiększać ani zmniejszać dostępnych zasobów ani funduszu gry. W tym przypadku suma wszystkich wygranych jest równa sumie wszystkich strat w dowolnym ruchu. Spójrz w prawo – liczby reprezentują płatności na rzecz graczy – a ich suma w każdej komórce wynosi zero. Przykładami takich gier jest poker, w którym wygrywa się wszystkie zakłady innych; Reversi, gdzie pionki wroga są przechwytywane; lub zwykła kradzież.

Wiele gier badanych przez matematyków, jak wspomniany już Dylemat Więźnia, ma inny charakter: w grach o sumie niezerowej wygrana jednego gracza nie musi oznaczać przegranej innego i odwrotnie. Wynik takiej gry może być mniejszy lub większy od zera. Takie gry można zamienić na grę o sumie zerowej – dokonuje się tego poprzez wprowadzenie fikcyjnego gracza, który „przywłaszcza” sobie nadwyżkę lub uzupełnia deficyt.

Kolejną grą z sumą niezerową jest handel, na którym zyskuje każdy uczestnik. Dobrze znanym przykładem jego spadku jest wojna.

Równolegle i szeregowo

W grach równoległych gracze poruszają się jednocześnie lub przynajmniej nie są świadomi wyborów innych, dopóki wszyscy nie wykonają swojego ruchu. W grach sekwencyjnych, czyli dynamicznych, uczestnicy mogą wykonywać ruchy w ustalonej lub losowej kolejności, ale jednocześnie otrzymują informacje o wcześniejszych działaniach innych osób. Informacje te mogą nawet nie być całkowicie kompletne, np. gracz może dowiedzieć się, że jego przeciwnik ze swoich dziesięciu strategii nie wybrał dokładnie piątej, nie dowiadując się nic o pozostałych.

Różnice w prezentacji gier równoległych i sekwencyjnych zostały omówione powyżej. Te pierwsze są zwykle przedstawiane w formie normalnej, a te drugie w formie rozszerzonej.

Z pełnymi lub niekompletnymi informacjami

Ważnym podzbiorem gier sekwencyjnych są gry z pełną informacją. W takiej grze uczestnicy znają wszystkie wykonane do chwili obecnej ruchy, a także możliwe strategie przeciwników, co pozwala im w pewnym stopniu przewidzieć dalszy rozwój gry. Pełne informacje nie są dostępne w grach równoległych, ponieważ aktualne ruchy przeciwników są nieznane. Większość gier badanych na matematyce zawiera niekompletne informacje. Na przykład cały sens Dylematu Więźnia czy Porównania Monet polega na ich niekompletności.

Jednocześnie istnieją ciekawe przykłady gier z pełną informacją: „Ultimatum”, „Stonoga”. Dotyczy to również szachów, warcabów, Go, Mancala i innych.

Pojęcie pełnej informacji często mylone jest z podobnym pojęciem – informacja doskonała. W tym drugim przypadku wystarczy znajomość wszystkich strategii dostępnych przeciwnikom, nie jest konieczna znajomość wszystkich ich ruchów.

Gry z nieskończoną liczbą kroków

Gry w prawdziwym świecie lub gry studiowane w ekonomii zazwyczaj trwają skończoną liczbę tur. Matematyka nie jest tak ograniczona, a teoria mnogości zajmuje się w szczególności grami, które mogą trwać w nieskończoność. Co więcej, zwycięzca i jego wygrana nie są ustalane aż do końca wszystkich ruchów.

Zadaniem, jakie zwykle stawia się w tym przypadku, nie jest znalezienie optymalnego rozwiązania, ale znalezienie przynajmniej zwycięskiej strategii. Korzystając z aksjomatu wyboru, można udowodnić, że czasami nawet w grach z pełną informacją i dwoma wynikami – „wygraną” lub „przegraną” – żaden z graczy nie ma takiej strategii. Istnienie zwycięskich strategii dla niektórych specjalnie zaprojektowanych gier odgrywa ważną rolę w opisowej teorii mnogości.

Gry dyskretne i ciągłe

Większość badanych gier ma charakter dyskretny: mają skończoną liczbę graczy, ruchów, wydarzeń, wyników itp. Jednak składowe te można rozszerzyć na wiele liczb rzeczywistych. Gry zawierające takie elementy nazywane są często grami różnicowymi. Związane są z jakąś skalą materialną (zwykle skalą czasu), choć zachodzące w nich zdarzenia mogą mieć charakter dyskretny. Gry różniczkowe są również uwzględniane w teorii optymalizacji i znajdują zastosowanie w inżynierii, technologii i fizyce.

Metagry

Są to gry, których wynikiem jest zbiór zasad innej gry (zwanej grą docelową lub grą obiektową). Celem metagier jest zwiększenie użyteczności danego zestawu reguł. Teoria metagier jest powiązana z teorią optymalnych mechanizmów.

Metody budowy i analizy modeli symulacyjnych (modelowanie symulacyjne).

Modelowanie symulacyjne (modelowanie sytuacyjne) to metoda pozwalająca na budowanie modeli opisujących procesy tak, jak przebiegałyby one w rzeczywistości. Taki model można „odgrywać” w czasie zarówno dla jednego testu, jak i danego ich zestawu. W tym przypadku o wynikach zadecyduje losowy charakter procesów. Z tych danych można uzyskać dość stabilne statystyki.

Modelowanie symulacyjne to metoda badawcza, w której badany system zostaje zastąpiony modelem opisującym system rzeczywisty z wystarczającą dokładnością, z jaką przeprowadza się eksperymenty w celu uzyskania informacji o tym systemie. Eksperymentowanie z modelem nazywa się imitacją (imitacja to zrozumienie istoty zjawiska bez uciekania się do eksperymentów na rzeczywistym przedmiocie).

Modelowanie symulacyjne jest szczególnym przypadkiem modelowania matematycznego. Istnieje klasa obiektów, dla których z różnych powodów nie opracowano modeli analitycznych ani nie opracowano metod rozwiązywania otrzymanego modelu. W takim przypadku model analityczny zastępuje się symulatorem lub modelem symulacyjnym.

Modelowanie symulacyjne nazywane jest czasami uzyskiwaniem częściowych rozwiązań numerycznych sformułowanego problemu w oparciu o rozwiązania analityczne lub przy użyciu metod numerycznych.

Model symulacyjny to logiczny i matematyczny opis obiektu, który można wykorzystać do eksperymentów na komputerze w celu zaprojektowania, analizy i oceny funkcjonowania obiektu.

Zastosowanie modelowania symulacyjnego.

Modelowanie symulacyjne stosuje się, gdy:

· eksperymentowanie na prawdziwym przedmiocie jest kosztowne lub niemożliwe;

· nie da się zbudować modelu analitycznego: system ma czas, związki przyczynowe, konsekwencje, nieliniowości, zmienne stochastyczne (losowe);

· konieczna jest symulacja zachowania systemu w czasie.

Celem modelowania symulacyjnego jest odtworzenie zachowania badanego systemu w oparciu o wyniki analizy najistotniejszych zależności pomiędzy jego elementami, czyli innymi słowy - opracowanie symulatora (ang. modelowanie symulacyjne) danej dziedziny badane w celu przeprowadzenia różnych eksperymentów.

Rodzaje symulacji

Trzy podejścia symulacyjne

Podejścia symulacyjne w skali abstrakcji

· Modelowanie agentowe to stosunkowo nowy (1990-2000) kierunek modelowania symulacyjnego, który służy do badania systemów zdecentralizowanych, których dynamikę funkcjonowania wyznaczają nie globalne reguły i prawa (jak w innych paradygmatach modelowania), wręcz przeciwnie, gdy te globalne zasady i prawa są wynikiem indywidualnej działalności członków grupy. Celem modeli agentowych jest zrozumienie tych globalnych reguł, ogólnego zachowania systemu, w oparciu o założenia dotyczące indywidualnego, prywatnego zachowania jego poszczególnych aktywnych obiektów i interakcji tych obiektów w systemie. Agent to pewna jednostka, która ma aktywność, autonomiczne zachowanie, może podejmować decyzje zgodnie z określonym zestawem reguł, wchodzić w interakcję z otoczeniem, a także zmieniać się niezależnie.

· Modelowanie zdarzeń dyskretnych to podejście do modelowania, które proponuje abstrakcję od ciągłego charakteru zdarzeń i uwzględnienie jedynie głównych zdarzeń symulowanego systemu, takich jak: „oczekiwanie”, „przetwarzanie zamówienia”, „przemieszczanie się z ładunkiem”, „ rozładunek” i inne. Modelowanie zdarzeń dyskretnych jest najbardziej rozwinięte i ma ogromną gamę zastosowań – od systemów logistycznych i kolejkowych po systemy transportowe i produkcyjne. Ten typ modelowania jest najbardziej odpowiedni do modelowania procesów produkcyjnych. Założona przez Jeffreya Gordona w latach 60.

Podobne dokumenty

    Podejmowanie decyzji w warunkach niepewności. Kryterium Laplace'a i zasada racji niedostatecznej. Kryterium skrajnego pesymizmu. Wymagania kryterium Hurwitza. Znalezienie minimalnego ryzyka według Savage'a. Wybór optymalnej strategii przy podejmowaniu decyzji.

    test, dodano 01.02.2012

    Teoria decyzji statystycznych jako poszukiwanie optymalnego zachowania niedeterministycznego w warunkach niepewności. Kryteria decyzyjne Laplace'a, minimaxa, Savage'a, Hurwitza i różnice między nimi. Matematyczne środki opisu niepewności.

    test, dodano 25.03.2009

    Zastosowanie matematycznych metod ilościowych do uzasadniania decyzji we wszystkich obszarach celowej działalności człowieka. Opis metody Minty. Wybór środowiska programistycznego. System programowania Delphi. Parametry produktu oprogramowania.

    praca na kursie, dodano 31.05.2012

    Teoretyczne podstawy metod ekonomicznych i matematycznych. Etapy podejmowania decyzji. Klasyfikacja problemów optymalizacyjnych. Zagadnienia programowania liniowego, nieliniowego, wypukłego, kwadratowego, całkowitego, parametrycznego, dynamicznego i stochastycznego.

    praca na kursie, dodano 07.05.2013

    Budowa modeli ekonomicznych i matematycznych podejmowania decyzji w warunkach niepewności. Ogólna metodologia problemów optymalizacyjnych, ocena zalet wybranej opcji. Dualność i metoda simpleksowa rozwiązywania problemów programowania liniowego.

    przebieg wykładów, dodano 17.11.2011

    Potrzeba prognozowania we współczesnym biznesie, identyfikowania obiektywnych alternatyw dla badanych procesów i trendów gospodarczych. Grupa statystycznych metod prognozowania, sprawdzania adekwatności i dokładności matematycznych modeli prognostycznych.

    praca na kursie, dodano 13.09.2015

    Opracowanie i podjęcie właściwej decyzji jako zadanie dla kadry zarządzającej organizacją. Drzewa decyzyjne to jedna z metod automatycznej analizy danych, zalety ich stosowania i zakres zastosowania. Budowa drzew klasyfikacyjnych.

    test, dodano 08.09.2011

    Optymalizacja rozwiązań metodami dynamicznymi. Obliczanie optymalnego terminu rozpoczęcia budowy obiektów. Podejmowanie decyzji w warunkach ryzyka (wyznaczanie oczekiwań matematycznych) i niepewności (optymalna strategia zachowania się rośliny, reguła maximax).

    test, dodano 10.04.2010

    Ilościowe uzasadnienie decyzji zarządczych mających na celu poprawę stanu procesów gospodarczych z wykorzystaniem metody modeli matematycznych. Analiza optymalnego rozwiązania problemu programowania liniowego dla czułości. Koncepcja optymalizacji wieloparametrowej.

    praca na kursie, dodano 20.04.2015

    Studiowanie w praktyce nowoczesnych metod zarządzania i organizacji produkcji, doskonalenie stosowania tych metod. Opis sieci zorientowanej, obliczenia wskaźników sieciowych do podejmowania decyzji zarządczych. Problem wyboru i oceny dostawcy.

 


Czytać:



Metody frezowania: góra-dół, góra-dół

Metody frezowania: góra-dół, góra-dół

Podczas frezowania cylindrycznego oś frezu jest równoległa do obrabianej powierzchni; praca odbywa się za pomocą zębów umieszczonych na cylindrycznym...

okresowe badania lekarskie w przedsiębiorstwie, etapy poddawania się okresowym badaniom lekarskim

okresowe badania lekarskie w przedsiębiorstwie, etapy poddawania się okresowym badaniom lekarskim

Nie jest tajemnicą, że jeśli nie zdasz badania lekarskiego, dana osoba nie zostanie przyjęta do instytucji edukacyjnej, do wojska ani do pracy. Na wprost...

Wydarzenie edukacyjne „Dobro zaczyna się od Ciebie”

Wydarzenie edukacyjne „Dobro zaczyna się od Ciebie”

Podsumowanie wydarzenia pedagogicznego z dziećmi ze starszej grupy przedszkola „Wszyscy ludzie potrzebują życzliwości” Opracował: ROGOZHINA V.A., NAUCZYCIEL WYŻSZYCH...

Czy musimy przejmować doświadczenie, czy „sami mamy wąsy”?

Czy musimy przejmować doświadczenie, czy „sami mamy wąsy”?

Najtrudniejszą rzeczą dla ludzi nie jest rozpoznawanie nowych pomysłów, ale zapominanie o starych. M. Keynes Kleptomania, podniesiony do rangi sztuki zarządzania Fryderyk...

obraz kanału RSS