Dom - Usługi
Empiryczne badania marketingowe. Istota empirycznych badań marketingowych Empiryczne badania rynku

Minervin I.G.

O artykule Chrissokidis J.M., Wong W.

Rozwiązując problem wypuszczania nowych produktów na rynki zagraniczne, menedżerowie mogą zastosować inną strategię. Warianty tej strategii to jednoczesne lub sekwencyjne wydawanie produktów w różnych krajach. Autorzy zauważają, że strategia wydawania sekwencyjnego jest często postrzegana jako sposób na zmniejszenie ryzyka, ale w rzeczywistości strategia ta ignoruje fakt, że sukces nowego produktu w dużej mierze zależy od terminowości jego wejścia na rynki międzynarodowe.

Autorzy zauważają, że przyspieszenie rozwoju nowych produktów i skrócenie ich cyklu życia oznacza, że ​​firmy muszą dążyć do niezwykle krótkich terminów komercjalizacji produktów, aby nie dopuścić do wyprzedzenia konkurencji. Istotnym czynnikiem w tym zakresie wydaje się być szybkość wprowadzania na rynek. przewaga konkurencyjna, co prowadzi do wzrostu sprzedaży ogółem i wzrostu rentowności prowadzonej działalności. Im większy zysk w czasie w porównaniu do konkurentów na rynku, tym większa szansa dla innowatora na ugruntowanie swojej pozycji. znak towarowy i zbliżyć oczekiwania konsumentów do parametrów ich produktów. Każde opóźnienie we wprowadzeniu produktu na rynek oznacza utratę sprzedaży, wydłużenie okresu zwrotu, zmniejszenie ogólnego zysku w całym cyklu życia produktu oraz osłabienie pozycji konkurencyjnej. Wszystkie te względy nabierają jeszcze większego znaczenia w przypadku nowych produktów wchodzących na wiele rynków, w tym międzynarodowych.

Ważną cechą współczesnego rynku jest konkurencja czasowa (wraz z konkurencją cenową i konkurencją jakościową). Szybkość i terminowość opracowywania, dostarczania produktu lub usługi oraz inne formy odpowiedzi na żądania konsumentów są ważne nie tylko na rynku krajowym, ale także na rynku międzynarodowym. Globalizacja rynków i konkurencja dodatkowo wzmacnia to znaczenie. Praktyka pokazuje, że firmy coraz bardziej zorientowane są na rozwój produktów na rynki różnych krajów i koordynują wprowadzanie produktów na światową skalę. Przykładem jest Ford Escort. Niektóre firmy decydują się na jednoczesne wejście na rynki w skali globalnej, tak jak Microsoft, który 24 sierpnia 1995 r. wydał Windows 95. Inne decydują się na wprowadzanie etapami, gdy produkt jest gotowy, najpierw na jednym lub dwóch rynkach, a następnie na innych. , zakładając, że wolniejsze, bardziej konsekwentne wyjście jest mniej ryzykowne (jeśli coś jest nie tak na rynku jednego kraju, można podjąć kroki w celu rozwiązania problemu, zanim pojawi się on na innych rynkach). Pojawia się również opinia, że ​​ogólne opóźnienie jednoczesnego wyjścia obarczone jest poważniejszymi konsekwencjami dla pozycji finansowej i rynkowej firmy. Autorzy podkreślają, że zakres i przyczyny opóźnień w jednoczesnym i konsekwentnym wejściu na rynki nie zostały jeszcze zbadane, a ich wiedza zwiększy zrozumienie i umiejętność rozwiązania szeregu problemów.

Autorzy podjęli się badania, aby poznać częstotliwość dotrzymywania terminów i opóźnień dla obu strategii, określić przyczyny opóźnień i wpływ, jaki miały one na efektywność komercyjną nowych produktów.

W ramach badania, pod kątem terminowości międzynarodowego wprowadzenia nowych produktów (MZNP), autorzy rozumieją gotowość produktu do sprzedaży na wielu rynkach docelowych firmy zgodnie z zaplanowanymi terminami. Innymi słowy, terminowość odnosi się do zdolności firmy do dotrzymania harmonogramu ustalonego przez jej kierownictwo. Miarą terminowości jest odchylenie faktycznego terminu wypuszczania nowych produktów na rynki docelowe od planowanych. Produkt gotowy do sprzedaży oznacza wykonanie wszystkich niezbędnych czynności technicznych, zgodność z lokalnymi przepisami prawa i regulacjami rządowymi oraz innymi warunkami komercjalizacji nowych produktów. Produkt, który nie przeszedł wszystkich oficjalnych administracyjnych procedur certyfikacji i nie spełnia wszystkich lokalnych wymagań prawnych, nie może być uznany za „technicznie” gotowy do sprzedaży.

Ustalenie planowanych lub pożądanych warunków wprowadzania nowych produktów na rynki zależy od kwalifikacji i doświadczenia menedżerów, ich wiedzy o silnej i Słabości organizacji, szacowanie czasu potrzebnego na doprowadzenie produktu do stanu gotowości. Pomimo tych potencjalnych różnic i subiektywnych czynników decyzyjnych, rozsądnie jest przyjąć, że odchylenia czasu rzeczywistego wejścia na rynek od planowanych wynikają z pojawienia się przyczyn, których nie przewidywano na etapie planowania. Znaczne opóźnienia w MZRP wskazują na istotne błędy zarządcze i mają istotne konsekwencje dla działalności firmy. Głównym celem niniejszego opracowania jest analiza tych przyczyn, których zrozumienie jest ważne dla menedżerów.

Hipotetyczne czynniki w terminowości międzynarodowego wprowadzenia nowych produktów

Na potrzeby analizy autorzy wysunęli szereg wstępnych hipotez, które mogłyby wyjaśnić konkretne wyniki promocji produktów na rynki zagraniczne w celu ich potwierdzenia lub obalenia w wyniku badań empirycznych. Tym samym przyjmuje się, że terminowość MZNP zależy od wielu czynników związanych z otoczeniem zewnętrznym i wewnętrznym organizacji, strategią produktową oraz charakterystyką produktu. Do czynników otoczenie zewnętrzne odnieść się:

1. Ustawodawstwo lokalne i regulacje państwowe określające tryb, warunki prawne i techniczne sprzedaży produktów na rynku danego kraju. Odpowiednie procedury, zwłaszcza w wielu branżach (farmacja, chemia, żywność, telekomunikacja) mogą być dość złożone i długotrwałe (hipoteza 1a);

2. Otoczenie technologiczne, które oddziałuje na wiele sposobów i może powodować potrzebę dodatkowej długofalowej adaptacji produktów do odpowiednich rynków, w tym:

Różnice w poziomie standaryzacji produktów i technologii oraz norm technicznych (hipoteza 1b);

Różnice w wymaganiach dotyczących dostosowywania produktu1 (np. dostosowanie do sygnałów z nadawczych urządzeń telekomunikacyjnych) (hipoteza 1c);

Ogólny poziom rozwoju technologicznego charakterystyczny dla rynku danego kraju, wyrażony w kategoriach przestarzałości technologii, tempa odnawiania technologii produkcji i produktów (np. niemożność wprowadzenia na rynek samochodów z silnikami wyposażonymi w zaawansowaną technologię oczyszczania katalitycznego, w przypadku braku lub niedoboru paliwa bezołowiowego w niektórych krajach). Zakłada się, że niskie tempo innowacji technologicznych może być czynnikiem opóźniającym MZNP (hipoteza 1d).

3. Otoczenie rynkowo-konsumenckie, tj. stopień niejednorodności lub zróżnicowania rynku – wymagania i preferencje konsumentów oraz podaż towarów, charakter zakupów i zwyczaje nabywania towarów, stopień zainteresowania konsumentów informacją o produkcie. Zakłada się, że wysoki stopień heterogeniczności rynku wymaga większego wysiłku w celu dostosowania strategii marketingowej, zwiększając prawdopodobieństwo opóźnień w jej realizacji (hipoteza 1e).

4. Otoczenie konkurencyjne, stopień nasilenia konkurencji, agresywność i wrogość zachowań konkurentów, postrzegane przez kierownictwo firmy jako zagrożenie. Zakłada się, że im bardziej niebezpieczna konkurencyjne środowisko, tym większa chęć menedżerów do realizacji strategii terminowości MZNP i odwrotnie (hipoteza 1f).

Do czynników wewnętrznych, tj. wewnętrzne funkcje i procesy rozwoju i komercjalizacji nowych produktów, które określają strategię marketingową dla rynki międzynarodowe autorzy powołują się na:

1. Organizacja rozwoju i rozwoju nowych produktów, których powodzenie zależy od jakości planowania projektu; techniczne i badania rynku; działania marketingowe, w tym testowanie, sprzedaż próbna, koordynacja kanałów dystrybucji, reklama i promocja towarów; poziom projektu technologicznego; pozycjonowanie na rynku itp. Czynniki takie jak jasna organizacja procesów rozwoju nowego produktu, rzetelne planowanie projektu, wysoki stopień integracji międzyfunkcyjnej oraz koordynacja procesów rozwoju i opanowania nowego produktu powinny zmniejszyć prawdopodobieństwo naruszenia terminowości MZNP (odpowiednio , hipotezy 2a, 2b i 2c).

2. Mechanizmy koordynacji działań firmy na międzynarodowych rynkach docelowych. Terminowość MZNP zależy od skutecznego zastosowania administracyjnych mechanizmów koordynacyjnych na poziomie międzynarodowym, w tym między centralą firmy, jej oddziałami i agentami. Takie mechanizmy wykorzystywane przez korporacje transnarodowe można podzielić na dwie grupy:

Bardziej sformalizowane i ustrukturyzowane mechanizmy, w tym działania w zakresie reorganizacji wydziałów, centralizacji lub decentralizacji podejmowania decyzji, opracowywania procedur, planowania, oceny wyników i monitorowania wyników;

W większym stopniu nieformalne i „dokładne” mechanizmy koordynacji, w tym wykorzystanie nieformalnych kanałów komunikacji (podróże służbowe, spotkania, wymiany pracowników, kontakty osobiste kierowników), powiązania poziome między działami (tworzenie tymczasowych zespołów i grup docelowych, struktury macierzowe , komisje), wprowadzenie wspólnego Kultura organizacyjna.

Zakłada się, że brak lub niedostateczne wykorzystanie metod nieformalnych utrudnia komunikację, utrudnia koordynację, a tym samym zwiększa prawdopodobieństwo naruszenia terminowości MZNI (hipoteza 2d), natomiast bardziej „sztywne”, formalne metody nie mają namacalnego efekt w zakresie aktualności MZNI (hipoteza 2e).

Następna grupa czynniki terminowości MZNP jest powiązany ze strategią produktową firmy i charakterystyką produktu.

Strategia produktowa obejmuje takie czynniki, jak zróżnicowanie rynków docelowych (decyzje dotyczące rynków kluczowych i wtórnych, na których wprowadzane będą nowe produkty), wielkość alokowanych zasobów technicznych i marketingowych oraz sposoby wejścia na rynek. Wprowadzenie nowego produktu na zróżnicowane segmenty rynku może wymagać znacznej adaptacji, zarówno technologicznej, jak i marketingowej, do rynków różnych krajów, dodatkowych inwestycji w projektowanie i marketing, a nawet restrukturyzacji organizacyjnej, reorientacji całego biznesu i radykalnych zmian w praktykach zarządzania. Zasoby marketingowe obejmują rzeczywisty personel sprzedaży, personel szkoleniowy dla personelu technicznego i handlowego, personel obsługi posprzedażowej, powiązany sprzęt i środki niezbędne do zapewnienia promocji produktu na rynku, obsługi kanałów dystrybucji itp. Zasoby techniczne obejmują również odpowiedni personel, gotówka i inne elementy techniczne i oprogramowanie wymagana jakość. Ważne jest również, aby projekt rozwoju nowych produktów był spójny z istniejącymi kompetencjami marketingowymi i technicznymi oraz zasobami firmy.

Wynika z tego, że prawdopodobieństwo odchyleń od terminowości MZNP rośnie wraz ze wzrostem stopnia zróżnicowania rynków docelowych (hipoteza 3a), niewystarczającymi zasobami marketingowymi (hipoteza 3b) oraz niewystarczającymi zasobami technicznymi (hipoteza 3c).

Czynniki związane z cechami produktu wyrażają się przede wszystkim, po pierwsze, w wpływie, jaki wywierają na technologię użytkowania produktu i zestaw metod marketingowych, a po drugie, w stopniu doskonałości, przewagach komparatywnych produktów. Cechy jakościowe, stopień doskonałości produktu jest uważany przez wielu badaczy za najważniejszy czynnik jego skutecznej promocji na rynku. Ponadto ważne są warunki i korzyści wynikające z użytkowania i utrzymania produktu w percepcji potencjalnego konsumenta. Zatem akceptacja innowacyjnych produktów przez rynek znacznie spada, jeśli potencjalni konsumenci uznają innowację za niezgodną z istniejącym typem. zachowania konsumentów lub zbyt trudne do opanowania. Z tego wynikają dwa założenia: wysoka jakość nowego produktu, który odpowiada na potrzeby rynków docelowych, zmniejsza prawdopodobieństwo naruszenia terminowości MZNP (hipoteza 3d); Niedopasowanie warunków eksploatacji i konserwacji produktu do rynków docelowych zwiększa prawdopodobieństwo niezgodności z docelowymi terminami MZNP (hipoteza 3e).

Kolejnym aspektem analizy jest zbadanie związku między terminowością MZNP a sukcesem rynkowym produktu. Autorzy wychodzą z obecności pozytywnej zależności (hipoteza 4), gdyż odroczenie MZNP wskazuje na pewne błędy zarządcze, które mogą mieć pewien wpływ na efektywność handlową nowego produktu i na całą działalność firmy.

Metodologia i wyniki badania

Badanie przeprowadzono w kilku etapach. W pierwszym etapie przeprowadzono ankietę wstępną wśród liderów sześciu KTN, która pozwoliła wypracować metody szczegółowego przesłuchiwania. Następnie przeprowadzono szerokie badanie innych firm. Głównym źródłem informacji były obszerne wywiady z menedżerami marketingu odpowiedzialnymi za planowanie międzynarodowe, rozwój i komercjalizację produktów, a także z szefami centralnych działów rozwoju produktów, produkcji i dystrybucji.

Przeanalizowano łącznie 30 konkretnych przykładów wprowadzania nowych produktów przez duże korporacje TNK z europejską centralą zlokalizowaną w Wielkiej Brytanii. Wśród nich jest 11 firm z Ameryki Północnej, 7 z Wielkiej Brytanii, 2 połączone brytyjsko-amerykańskie, 9 z Japonii i jedna z Hongkongu. Do badania wybrano głównie branże high-tech i w dużym stopniu umiędzynarodowione, charakteryzujące się wysokim tempem zmian technologicznych i innowacyjnością produktów (telekomunikacja, elektronika i komputery, aparatura fotograficzno-pomiarowa), w których firmy z reguły są zmuszone wprowadzać nowe produkty w krótkim czasie na wielu rynkach. Ze względu na dostępność danych badanie ograniczono głównie do wprowadzenia produktów na rynki krajów Europy Zachodniej.

Spośród przebadanych przykładów 60% to zaktualizowane i unowocześnione rodzaje produktów, a 40% to zasadniczo nowe rodzaje. 19 przypadków (63% próby) to produkty masowe, 11 (37%) to produkty przeznaczone dla określonych segmentów rynku. W 15 przypadkach (50%) nastąpiło opóźnienie, w 15 (50%) przypadkach dotrzymano harmonogramu wejścia na rynek (s. 25).

Pomiar parametrów czasowych oparto na dwóch szacunkach: 1) różnicy czasu między rzeczywistymi a planowanymi terminami MZNP; 2) ocena ekspercka efektywności procesu MZNP wyrażona w punktach (od -5 – „bardzo wolno”, do +5 – „bardzo szybko”). Ponadto za pomocą oceny eksperckiej w zakresie wielu wskaźników (wielkość sprzedaży, rentowność, okres zwrotu, itp.) oceniano komercyjny sukces wprowadzenia danego produktu na rynek.

Wszystkie badane przypadki podzielono na dwie grupy: 1) wejście jednoczesne, przez które rozumie się wejście planowane na wszystkie rynki docelowe w ciągu 1-2 miesięcy (8 przypadków, czyli 27%); 2) wyjścia sekwencyjne, gdy planowane daty wyjścia przekraczają 2 miesiące (22 przypadki, czyli 73%). Jednocześnie wszystkie jednoczesne wyjścia okazały się terminowe, tj. zostały przeprowadzone bez naruszenia zaplanowanych terminów. W ostatniej grupie wystąpiły przypadki opóźnień (15 spraw), których terminy wahały się od 1 do 12 miesięcy lub więcej. Dane te, zdaniem autorów, podają w wątpliwość powszechne przekonanie, że kolejne starty są mniej ryzykowne. Skłonność menedżerów do kolejnych startów, w obawie przed trudnościami i ryzykiem związanym z organizacją równoczesnych startów w wielu krajach, często prowadziła do odwrotności, niż oczekiwano.

Analiza czynników aktualności (lub przyczyn odchyleń) MZNP wykazała, że ​​8 kluczowych czynników złożonych (CF) ma największe znaczenie, przy czym pierwsze cztery dotyczą strategii marketingowej i cech produktu, a drugie cztery do grupy czynniki wewnętrzne:

CF1 - wystarczająca ilość zasobów marketingowych dla określonych nowych produktów;

EF2 - wystarczalność zasobów technicznych dla określonych nowych produktów;

KF3 - zgodność warunków eksploatacji i utrzymania nowych produktów z rynkami docelowymi;

KF4 - doskonałość produktu pod względem cech jakościowych i korzyści konsumenckich;

CF5 - integracja w procesie opracowywania i opanowywania nowych produktów;

CF6 - doskonalenie procesów rozwoju i rozwoju nowych produktów, w tym planowanie projektów, testowanie, koordynacja, promocja itp.;

CF7 - wstępne opracowanie koncepcji produktu, przeznaczenia, potencjalnych segmentów rynku, konsumentów, znajomości ich potrzeb;

CF8 - komunikacja wewnętrzna i koordynacja między centralą, oddziałami i oddziałami z wykorzystaniem nieformalnych, „miękkich” metod.

Wraz z wysokimi współczynnikami korelacji pomiędzy wszystkimi wymienionymi czynnikami, szczególnie silną korelację obserwuje się między zasobami marketingowymi (CF1), czynnikami rozwoju nowych produktów (CF5, CF6, CF7) oraz komunikacją wewnątrzorganizacyjną (CF8), a także między zasobami technicznymi (CF2) i rozwój produktu (KF5, KF6, KF7). Adekwatność systemu marketingowego, kanałów dystrybucji, kadry szkoleniowej ma bezpośredni i pośredni wpływ, wpływając na kształtowanie rynku i proces rozwoju produktu, a także komunikację i jakość informacji rynkowej. Dostateczność i jakość zasobów inżynieryjno-technicznych odgrywa kluczową rolę w rozwoju nowego produktu, decyduje o jego parametrach i właściwościach. Z kolei doskonałość procesów opracowywania nowego produktu znajduje odzwierciedlenie w jego wysokiej jakości cechach (korelacja między CF4 i CF5-CF7).

Na tym etapie analiza korelacji wykazała zatem, że współzależne czynniki CF1-CF8 przyczyniają się do terminowości MZNP. Ponadto skala różnic w wpływie czynników, które wystąpiły w przypadkach przestrzegania i naruszenia planowanych warunków MZNP (o różnicę wartości średnich i odchyleń standardowych dla każdego czynnika między przypadkami przestrzegania i naruszenia warunków MZNP) został poddany badaniu. Analiza ta wykazała również związek między wszystkimi czynnikami i ich pozytywny wpływ na terminowość MZNP. Tym samym potwierdzono słuszność hipotez 2a-2e i 3b-3e.

Jednocześnie wyniki badania ujawniły jedynie drugorzędne znaczenie czynnika zróżnicowania rynków docelowych, a także czynników związanych z otoczeniem zewnętrznym (prawnym, technologicznym, konkurencyjnym). Zgodnie z tymi wynikami, główne przyczyny naruszenia warunków MZNP związane są z wewnątrzzakładową organizacją procesów opanowywania nowych produktów, przede wszystkim z niedociągnięciami w zakresie komunikacji organizacyjnej i zapewnienia wysokiej jakości zasobów. . Rozwiązanie problemów z koordynacją, komunikacją, zapewnieniem zasobów marketingowych i technicznych umożliwia jak najłatwiejsze wejście na znaczną liczbę rynków docelowych poszczególnych krajów. Najlepsze wyniki uzyskuje się dzięki realistycznemu planowaniu i dostosowaniu zasobów do potrzeb konkretnych rynków docelowych. Tym samym nie potwierdziły się hipotezy 1a-1f oraz 3a.

Obliczenia wpływu terminowości MZNP mierzonej w miesiącach na efektywność handlową nowych produktów pod względem wielkości sprzedaży, rentowności, preferencji konsumentów itp., z wykorzystaniem analizy czynnikowej, pozwoliły ustalić, że produkty dopuszczone do rynki bez naruszania zaplanowanych terminów są znacznie bardziej skuteczne w porównaniu z przypadkami opóźnień. Tym samym hipoteza 4 została wyraźnie potwierdzona. Najistotniejsza dodatnia korelacja pomiędzy parametrem terminowości MZNP a wskaźnikami wielkości sprzedaży i rentowności nowych produktów, co świadczy o jego znaczeniu jako kluczowego czynnika wydajność ekonomiczna działalność innowacyjna na rynkach międzynarodowych.

Również pozytywna i istotna była korelacja między terminowością opracowywania nowych produktów (RNP) a terminowością MZNP. Przeciętny planowany czas na RNP w 30 badanych przypadkach wyniósł 14,4 miesiąca, a rzeczywisty 21,1 miesiąca, co daje średnie opóźnienie 6,8 miesiąca. Jednocześnie w 7 przypadkach nie doszło do naruszenia zaplanowanych terminów, aw 23 przypadkach nastąpiło opóźnienie. Częstotliwość opóźnienia RNP jest wyższa w przypadkach opóźnienia niż w przypadku terminowego MZNP. W 14 z 15 opóźnień we wprowadzaniu produktów na rynek wystąpiło opóźnienie w rozwoju produktów, a w 15 przypadkach terminowych tylko 9. Średni czas trwania opóźnień RNR był również dłuższy w przypadkach z opóźnieniem w MZNP (10 miesięcy). ) niż w przypadku czasu wprowadzenia produktu na rynek (3,9 miesiąca). Jednocześnie korelacja terminowości MZNP z wynikami finansowymi okazała się istotniejsza niż korelacja terminowości RNP z tymi wskaźnikami. Oznacza to, zdaniem autorów, że pomimo silnej dodatniej korelacji pomiędzy dwoma wymiarami terminowości konsekwencje finansowe opóźnienia MZNP mogą być większe niż konsekwencje opóźnienia zakończenia realizacji RPN. Wyniki badania pokazują, że sukces rozwoju i komercjalizacji nowych produktów na rynkach międzynarodowych zależy od zdolności menedżerów do zapewnienia zaplanowanego harmonogramu MZP w celu maksymalizacji korzyści płynących z realizacji zaplanowanego harmonogramu RNP. Opóźnienie czasu wprowadzenia produktu na rynek może zniweczyć osiągnięcia fazy rozwoju produktu.

wnioski

Wcześniejsze badania skupiające się na rozwoju i wprowadzaniu na rynek nowych produktów wykazały znaczenie terminowości. Niniejsze badanie jest próbą pogłębienia tej analizy poprzez odniesienie się do złożonej i ryzykownej decyzji o wprowadzeniu nowych produktów na rynki międzynarodowe. Główne wnioski dla procesu zarządzania są następujące.

1. Większa częstotliwość opóźnień wprowadzenia produktu na rynek z seryjnym w porównaniu z równoczesnym MZNP stanowi przestrogę przed preferowaniem sekwencyjnego MZNP ze względów zmniejszających ryzyko. Menedżerowie odpowiedzialni za marketing międzynarodowy powinni dokładnie rozważyć ryzyko opóźnień w kontekście dwóch modeli wejścia na rynki międzynarodowe.

2. Uzyskane wyniki podkreślają znaczenie czynników wewnątrzorganizacyjnych, strategii marketingowej i cech produktu. Jednocześnie brak bezpośredniego wpływu zróżnicowania rynków docelowych i czynników środowiskowych oznacza, że ​​firmy są w stanie zapewnić planowane wprowadzanie nowych produktów na rynki wielonarodowe, niezależnie od charakteru i surowości ustawodawstwa, regulacji rządowych, technologicznych, rynkowych i konkurencyjne warunki. W tym celu niezbędna jest rozsądna dystrybucja i koordynacja zasobów technicznych i marketingowych wspierających procesy RNP i MZNP.

3. Krytycznym czynnikiem terminowości jest zdolność do zapewnienia wymaganego zaplecza marketingowego i technicznego RNP i MZNP, ich zgodność ze strategią wejścia na rynki. Terminowość wszystkich badanych przypadków jednoczesnych startów, odzwierciedlająca adekwatność i synergię zasobów, sugeruje, że nierozsądne byłoby poleganie na sekwencyjnych startach jako sposobie zrekompensowania niewystarczających zasobów. W tym zakresie zachęca się również menedżerów do oceny decyzji zasobowych ERP-MZNP pod kątem ich wpływu na terminowość.

4. Dopasowanie zasobów to tylko jeden z warunków powodzenia MZNP. Uzupełnieniem powinna być efektywna organizacja procesów EPR. Badanie potwierdziło, że terminowość i skuteczność RNP znacząco wpływa na terminowość wejścia na rynki międzynarodowe. Wyraźnie widoczna jest rola intensywnej komunikacji i koordynacji działań centrali oraz międzynarodowych pionów firmy, które najlepiej osiąga się poprzez zastosowanie „miękkich” mechanizmów integracyjnych. Menedżerowie powinni dostrzegać korzyści płynące z tworzenia takich „miękkich” systemów dla efektywnej komunikacji pomiędzy działami w różnych krajach i zespołami zaangażowanymi w RNP. Zapewni to wczesne określenie celów technicznych i marketingowych dla nowych produktów, przyspieszenie procesów ich rozwoju oraz racjonalne wykorzystanie zasobów. Intensywna komunikacja pomaga stworzyć niezbędną infrastrukturę (aparat sprzedaży i pośrednicy) w poszczególnych krajach, pozwala menedżerom w tych krajach zdobyć wiedzę o produkcie, zawartych w nim technologiach, o jego potencjalnych użytkownikach, o metodach sprzedaży, aby uzupełnić wszystkie niezbędne działania marketingowe – od przygotowania kanałów dystrybucji po reklamę. Krótko mówiąc, ułatwiają międzynarodowy transfer kompetencji w celu komercjalizacji nowego produktu.

5. Badanie potwierdziło związek między terminowością MZNP a ogólnym sukcesem nowych produktów, pokazało, że w wyniku opóźnień cierpi sprzedaż i rentowność. Ponadto, chociaż efektywność czasowa MZNP niezmiennie towarzyszy efektywności MZNP, istnieją uzasadnione powody, by twierdzić, że pogorszenie wyników finansowych jest bardziej związane z naruszeniami harmonogramu MZP niż z procesem RNP. Wynika z tego, że menedżerowie powinni postrzegać RNP-MZNP jako jeden proces. Aby uniknąć awarii nowych produktów z powodu opóźnień, cele, strategie i zasoby RNP i MZNP powinny być oceniane wspólnie. Ponadto firmy high-tech, aby zmaksymalizować potencjał nowych produktów, powinny dążyć do penetracji rynków wielonarodowych poprzez terminowe wejście na rynek w skali globalnej.

Bibliografia

Do przygotowania tej pracy wykorzystano materiały ze strony http://www.marketing.spb.ru/.

Złożyć wniosek wskazanie tematu już teraz, aby dowiedzieć się o możliwości uzyskania konsultacji.

Ministerstwo Edukacji i Nauki Republiki Kazachstanu

Międzynarodowa Akademia Biznesu

WYDZIAŁ EKONOMII, ZARZĄDZANIA I PRZEDSIĘBIORCZOŚCI

DZIAŁ „FINANSE I AUDYT”

KURS PRACA

w dyscyplinie „Zarządzanie finansami”

Badania empiryczne modelu CAPM

student III roku F - 0706 grupa stacjonarna

Czernousowa Aleksandra Pawłowna

Doradca naukowy:

kandydat ekonomii, profesor nadzwyczajny

Aitekenova R.K.

Ałmaty 2010

Plan

Wstęp

Rozdział 1. Pojęcie, istota i cele modelu CAPM

1.1 Pojęcie i istota modelu CAPM

1.2 Proces obliczania modelu CAPM

Rozdział 2. Możliwość zastosowania wariantów modelu CAPM

2.1 Dwuczynnikowy model CAPM Blacka

2.2 Istota modelu D-CAPM

Rozdział 3 Badania empiryczne nad stosowalnością modelu CAPM na rynkach wschodzących

3.1 Krytyka CAPM i alternatywnych miar ryzyka

3.2 Przegląd badań empirycznych nad koncepcją ryzyka i zwrotu na rynkach wschodzących

Wniosek

Lista wykorzystanej literatury

załącznik

Wstęp

Aby określić trafność tego tematu, konieczne jest ustalenie, czym są i jakie są cele badań empirycznych.

Badania empiryczne to naukowe badania faktograficzne.

Wszelkie badania naukowe zaczynają się od zebrania, usystematyzowania i uogólnienia faktów. Pojęcie „faktu” ma następujące główne znaczenia:

1) Jakiś fragment rzeczywistości, obiektywne zdarzenia, rezultaty związane albo z obiektywną rzeczywistością („fakty rzeczywistości”), albo ze sferą świadomości i poznania („fakty świadomości”).

2) Wiedza o każdym zdarzeniu, zjawisku, którego wiarygodność została udowodniona, tj. synonimem prawdy.

3) Zdanie utrwalające wiedzę empiryczną, tj. uzyskane w trakcie obserwacji i eksperymentów.

Wewnętrzną strukturę poziomu empirycznego tworzą co najmniej dwa podpoziomy:

a) bezpośrednie obserwacje i eksperymenty, których wynikiem są dane obserwacyjne;

b) procedury poznawcze, za pomocą których dokonuje się przejście od danych obserwacyjnych do empirycznych zależności i faktów.

Aktywnościowy charakter badań empirycznych na poziomie obserwacji przejawia się najwyraźniej w sytuacjach, w których obserwacja prowadzona jest w toku rzeczywistego eksperymentu. Tradycyjnie eksperyment przeciwstawia się obserwacji poza eksperymentem. Należy zauważyć, że sednem badań empirycznych jest eksperyment – ​​testowanie badanych zjawisk w warunkach kontrolowanych i kontrolowanych. Różnica między eksperymentowaniem a obserwacją polega na tym, że warunki eksperymentu są kontrolowane, podczas gdy w obserwacji procesy są pozostawione naturalnemu biegowi zdarzeń. Nie negując specyfiki tych dwóch rodzajów aktywności poznawczej, należy zwrócić uwagę na ich wspólne cechy generyczne.

Aby to zrobić, zaleca się najpierw bardziej szczegółowo rozważyć, jaka jest specyfika badań eksperymentalnych jako działalności praktycznej. Aktywność eksperymentalna jest specyficzną formą naturalnego oddziaływania, a fragmenty przyrody oddziałujące w eksperymencie zawsze pojawiają się jako obiekty o funkcjonalnie wyodrębnionych właściwościach.

Zatem za główny cel pracy tego kursu można uznać eksperymenty z zastosowaniem pojęcia „ryzyko – rentowność” i określenie jego wykonalności w związku ze zmianami ryzyka i rynków krajowych.

W chwili obecnej koncepcja „ryzyko-zwrotu” jest kluczowa w finansach przedsiębiorstw, ponieważ pozwala określić ilościowo ryzyko inwestycyjne i kredytowe właścicieli kapitału firmy pod kątem rentowności oraz budować efektywne decyzje inwestycyjne i finansowe na podstawie oceny . Do tej pory nie ucichły spory dotyczące poprawności metod oceny ryzyka oraz budowy adekwatnego do warunków zewnętrznych modelu powiązania szacowanego ryzyka ze zwrotem wymaganym przez inwestorów.

Rozdział 1. Pojęcie, istota i cele modelu CAPM

1.1 Pojęcie i istota modelu CAPM

Capital Asset Pricing Model (CAPM) - model oceny rentowności aktywów finansowych służy jako teoretyczna podstawa dla szeregu różnych technologii finansowych do zarządzania rentownością i ryzykiem, wykorzystywanych w długo- i średnioterminowych inwestycjach w akcje.

Model wyceny długoterminowej, czyli model kosztu kapitału, został opracowany przez Harry'ego Markowitza w latach 50. XX wieku.

CAPM uwzględnia zwrot akcji w zależności od zachowania rynku jako całości. Kolejnym założeniem CAPM jest to, że inwestorzy podejmują decyzje na podstawie tylko dwóch czynników: oczekiwanego zwrotu i ryzyka.

Celem tego modelu jest wykazanie ścisłego związku między stopą zwrotu a ryzykiem instrumentu finansowego.

Wiadomo, że im większe ryzyko, tym większy zwrot. Dlatego znając potencjalne ryzyko zabezpieczenia możemy przewidzieć stopę zwrotu. I odwrotnie, jeśli znamy zwrot, możemy obliczyć ryzyko. Wszelkie tego typu kalkulacje dotyczące zwrotu i ryzyka są dokonywane przy użyciu modelu długoterminowej wyceny aktywów.

Zgodnie z modelem ryzyko związane z inwestycjami w dowolny ryzykowny instrument finansowy można podzielić na dwa rodzaje: systematyczne i niesystematyczne.

Ryzyko systematyczne wynika z ogólnych zmian rynkowych i ekonomicznych, które mają wpływ na wszystkie narzędzia inwestycyjne i nie są specyficzne dla konkretnego aktywa.

Ryzyko niesystematyczne związane jest z konkretną firmą emitującą.

Ryzyka systematycznego nie da się ograniczyć, ale można zmierzyć wpływ rynku na rentowność aktywów finansowych. Jako miarę ryzyka systematycznego CAPM wykorzystuje wskaźnik β (beta), który charakteryzuje wrażliwość aktywów finansowych na zmiany stóp zwrotu na rynku. Znając wskaźnik β aktywa, można określić ilościowo wielkość ryzyka związanego ze zmianami cen na całym rynku. Im większa jest wartość β za akcję, tym bardziej jej cena rośnie wraz z ogólnym wzrostem rynku, ale odwrotnie – akcje spółki z dużym dodatnim β spadają mocniej, gdy cały rynek spada.

Ryzyko niesystematyczne można ograniczyć budując zdywersyfikowany portfel odpowiednio dużej liczby aktywów lub nawet niewielkiej liczby aktywów antyskorelowanych.

Bo każda akcja ma swój własny stopień ryzyka, ryzyko to musi być pokryte rentownością, aby instrument pozostał atrakcyjny. Zgodnie z modelem wyceny aktywów długoterminowych, stopa zwrotu dowolnego instrumentu finansowego składa się z dwóch części:

1. dochód wolny od ryzyka

2. przychód ze składki

Innymi słowy, każdy zwrot z akcji obejmuje zwrot wolny od ryzyka (często obliczany na podstawie oprocentowania obligacji rządowych) i ryzykowny zwrot, który (najlepiej) odpowiada ryzyku papieru wartościowego. Jeżeli wskaźniki rentowności przekraczają wskaźniki ryzyka, wówczas instrument przynosi większy zysk niż powinien w zależności od stopnia ryzyka. I odwrotnie, jeśli wskaźniki ryzyka okazały się wyższe niż rentowność, to nie potrzebujemy takiego narzędzia.

1.2 Proces obliczania modelu CAPM

Zależność między ryzykiem a zwrotem zgodnie z modelem długoterminowej wyceny aktywów opisuje się następująco:

D = Db/r + β (Dr-Db/r), gdzie

D - oczekiwana stopa zwrotu

Db/r - dochód wolny od ryzyka

Dr - rentowność rynku jako całości

β - specjalny współczynnik beta

Dochód wolny od ryzyka to ta część dochodu, która jest zawarta we wszystkich instrumentach inwestycyjnych. Dochód wolny od ryzyka jest mierzony z reguły według stóp obligacji rządowych, ponieważ. są one praktycznie pozbawione ryzyka. Na Zachodzie dochód wolny od ryzyka wynosi około 4-5%, podczas gdy w naszym kraju 7-10%.

Całkowity zwrot z rynku to stopa zwrotu indeksu tego rynku. W Kazachstanie jest to wskaźnik giełdy KASE.

Beta to specjalny współczynnik, który mierzy ryzykowność instrumentu. Podczas gdy poprzednie elementy wzoru są proste, jasne i łatwe do znalezienia, znalezienie β nie jest takie łatwe; bezpłatne usługi finansowe nie są świadczone przez firmy β.

Współczynnik regresji β służy jako ilościowa miara ryzyka systematycznego, którego nie można zdywersyfikować. Papier wartościowy o współczynniku β równym 1 naśladuje zachowanie rynku jako całości. Jeżeli wartość współczynnika jest wyższa niż 1, reakcja zabezpieczenia wyprzedza zmianę rynku zarówno w jednym, jak iw drugim kierunku. Ryzyko systematyczne takiego aktywa finansowego jest ponadprzeciętne. Mniej ryzykowne są aktywa, których współczynniki β są poniżej 1 (ale powyżej 0).

Pojęcie współczynników β stanowi podstawę modelu wyceny aktywów kapitałowych (CAPM). Wskaźnik ten można wykorzystać do obliczenia wysokości premii za ryzyko wymaganej przez inwestorów w przypadku inwestycji o ponadprzeciętnym ryzyku systematycznym.

Współczynnik Beta - kąt nachylenia prostej z równania liniowego typu y = kx + b = β·(Dr-Db/r) + dB/r. Ta linia prosta jest prostą linią regresji dla dwóch zestawów danych: stóp zwrotu z indeksu i akcji. Graficzne przedstawienie zależności tych tablic da pewien zbiór, a linia regresji da nam wzór i pokaże nam zależność korelacji od rozrzutu punktów na wykresie.

Jako podstawę przyjmujemy formułę y = kx + b. W tym wzorze zastępujemy k współczynnikiem β, tutaj jest to równoważne ryzyku.

Otrzymujemy y = β x + b. Do obliczeń przyjmijmy przybliżone wskaźniki wolnej od ryzyka stopy zwrotu Korporacji X oraz stopy zwrotu indeksu KASE za okres od 15.04.2007-15.04.2008.

Obliczenia dla uproszczenia operacji przeprowadzono w programie MSExcel. Tabela danych została przedstawiona w załączniku.

Wykres 1. Obraz współczynnika beta


Wykres pokazuje więc, że beta wynosi 0,503, a więc rentowność akcji Korporacji X rośnie wolniej. Niż rentowność rynku, na którym jest notowana.

Obliczenie dodatkowego współczynnika, współczynnika korelacji R2, pokaże, jak bardzo zmiana indeksu wpływa na cenę akcji. W tym przykładzie udział Korporacji X jest bardzo słabo uzależniony od indeksu KASE, ponieważ. współczynnik korelacji wynosi 0,069.

Dlatego też model długoterminowej wyceny aktywów (CAPM) może pomóc w podjęciu decyzji, które akcje dodać do portfela inwestycyjnego. Model ten pokazuje bezpośredni związek między ryzykiem papieru wartościowego a jego zwrotem, co pozwala mu wykazać godziwy zwrot w stosunku do związanego z nim ryzyka i odwrotnie.

W naszym przypadku portfel papierów wartościowych składa się z akcji o minimalnym ryzyku. Mówi się, że inwestorzy mają awersję do awersji do ryzyka, więc wszelkie papiery wartościowe inne niż wolne od ryzyka obligacje rządowe lub bony skarbowe mogą być akceptowane przez inwestorów tylko wtedy, gdy ich oczekiwany zwrot rekompensuje związane z nimi dodatkowe ryzyko.

Premia ta nazywana jest premią za ryzyko, bezpośrednio zależy od wartości współczynnika β tego aktywa, ponieważ ma ona kompensować tylko ryzyko systematyczne.

Ryzyko niesystematyczne może zostać wyeliminowane przez samego inwestora poprzez dywersyfikację swojego portfela, więc rynek nie uważa za konieczne ustalanie wynagrodzenia za tego typu ryzyko.

Rozdział 2. Możliwość zastosowania wariantów modelu CAPM

2.1 Model dwuczynnikowy CAPM w wersji Blake'a

Jak wspomniano powyżej, klasyczne modele CAPM w wersji Sharpe-Lintner czy Black, ściśle rzecz biorąc, nie są zaimplementowane na rynku kazachskim. Być może porażka w testowaniu klasycznych wersji modelu CAPM wynika z faktu, że rynek kazachski należy do rynków wschodzących, do których tradycyjny model CAPM się nie nadaje, gdyż rynki wschodzące są „z definicji” mniej wydajne niż rozwinięte , a początkowe założenia modelu nie są na nich spełnione. W literaturze zaproponowano inne wersje modelu wyceny aktywów kapitałowych, większość z nich bazuje na modelu CAPM i jest jego modyfikacją.

Niestety wiele popularnych modeli to modyfikacje dostosowane do konkretnych przypadków i nie mają interpretacji ekonomicznej.

Jednym z najbardziej prawdopodobnych i teoretycznie poprawnych modeli jest model D-CAPM zaproponowany przez Estradę (2002b, 2002c).

Główną różnicą pomiędzy modelem D-CAPM a standardowym modelem CAPM jest pomiar ryzyka aktywów. Jeżeli w modelu standardowym ryzyko mierzone jest wariancją zwrotu, to w modelu D-CAPM ryzyko mierzone jest metodą semi-dyspersyjną ( semiwariancja), które pokazuje ryzyko spadku wydajności w stosunku do oczekiwanego lub dowolnego innego poziomu wybranego jako poziom odniesienia.

Semiwariancja jest bardziej wiarygodną miarą ryzyka, ponieważ inwestorzy nie boją się możliwości wyższych zwrotów, inwestorzy obawiają się możliwości spadku stóp zwrotu poniżej pewnego poziomu (na przykład poniżej poziomu średniego).

W oparciu o semi-dyspersję można zbudować alternatywny model behawioralny w oparciu o nowy wymiar ryzyka, jak również można zbudować zmodyfikowany model CAPM. W publikacjach akademickich nowy model cenowy został nazwany Downside CAPM lub D-CAPM.

Jak pokazano na rynkach wschodzących, zwroty są lepiej opisywane za pomocą D-CAPM w porównaniu z CAPM. Na rynkach rozwiniętych różnica między tymi dwoma modelami jest znacznie mniejsza. W związku z tym pojawia się pytanie o możliwość zastosowania modelu D-CAPM dla kazachskiej giełdy.

Model Blacka jest zasadniczo modelem dwuczynnikowym. Czynnikami w tym przypadku są nieobserwowalne portfele zbywalne: dowolny z efektywnych portfeli rynkowych i portfel do niego ortogonalny. Może to dać inną metodę walidacji modelu. Idea metody jest następująca. W oparciu o dostępne szeregi czasowe stóp zwrotu z różnych aktywów, metody analizy czynnikowej mogą identyfikować dwa najważniejsze czynniki i tworzyć abstrakcyjne portfele oparte na współczynnikach czynników.

Jeżeli do identyfikacji czynników stosuje się metodę głównych składowych, to z definicji te czynniki, a co za tym idzie utworzone portfele, będą ortogonalne (ułożone pod kątem prostym, prostopadle). Wtedy jeden z portfeli można uznać za portfel efektywny rynkowo, drugi za aktywa z zerową beta. Jednak model nie sprawdza się na rynkach wschodzących.

Przy konstruowaniu standardowego modelu wyceny aktywów kapitałowych zakłada się, że rozkład zwrotów jest normalny. Rozkład normalny jest symetryczny i całkowicie zdeterminowany przez średnią i wariancję. W standardowym modelu behawioralnym na działania inwestorów wpływa oczekiwanie i wariancja zwrotów (odchylenie standardowe zwrotów).

Dowody wskazują, że rozkład zwrotów nie jest symetryczny. Można przypuszczać, że w tym przypadku na działania inwestorów wpływ będzie miała nie tylko oczekiwana wartość i wariancja zwrotów, ale także współczynnik skośności rozkładu.

Intuicyjnie jest jasne, że inwestorzy, inni niż równe warunki preferują rozkłady z dodatnią skośnością. Dobrym przykładem jest loteria. Z reguły w loteriach jest duża wygrana z małym prawdopodobieństwem i mała strata z dużym prawdopodobieństwem. Wiele osób kupuje losy na loterię, mimo że mają one negatywny oczekiwany zwrot.

Według inwestorów przede wszystkim dążą do utrzymania początkowej wartości swoich inwestycji i unikania obniżania początkowej wartości inwestycji poniżej określonego poziomu docelowego. Takie zachowanie inwestorów jest zgodne z preferencją pozytywnej skośności.

Dlatego też niepożądane są aktywa zmniejszające asymetrię portfela. Dlatego oczekiwany zwrot takiego aktywa musi uwzględniać premię za to ryzyko. Asymetrię można uwzględnić w tradycyjnym modelu cenowym. Modele uwzględniające asymetrię są brane pod uwagę w.

Modele te zakładają, że przy innych warunkach bez zmian, inwestorzy preferują aktywa o wyższych zwrotach, aktywa z mniejszymi odchyleniami standardowymi i aktywa o większej skośności. W związku z tym można rozważyć alternatywny model behawioralny inwestorów oparty na trzech wskaźnikach rozkładu zwrotu z aktywów. B opisuje zbiór efektywnych portfeli w przestrzeni średniej, wariancji i asymetrii. Dla danego poziomu wariancji istnieje odwrotna zależność między zwrotami a skośnością. Oznacza to, że aby inwestor mógł posiadać aktywa o mniejszej asymetrii, muszą one mieć wyższy zysk. Oznacza to, że premia musi być ujemna.

Podobnie jak w przypadku dyspersji, na zwrot z aktywów nie ma wpływu skośność aktywów jako takich, ale udział aktywów w skośności portfela, tj. koasymetrii. Koasymetria powinna mieć premię ujemną. Zasób o większej koasymetrii powinien mieć niższy zwrot niż zasób o mniejszej koasymetrii.

Wyniki pokazują, że skośność pomaga wyjaśnić zmienność zwrotów w danych przestrzennych i znacznie poprawia trafność modelu. Artykuł pokazuje, że jeśli rynki są całkowicie podzielone, to na rentowność wpływa pełne rozproszenie i pełna asymetria. Na w pełni zintegrowanych rynkach liczy się tylko kowariancja i koasymetria.

Harvey i Siddique wyprowadzają następujący model skośności:

gdzie At i Bt są funkcjami rozproszenia rynku, skośności, kowariancji i koasymetrii. Współczynniki At i Bt są podobne do współczynnika β w tradycyjnym modelu CAPM.

Harvey i Siddique uszeregowali akcje według historycznej koasymetrii i utworzyli portfel S- zawierający 30% akcji o najniższej koasymetrii, 40% akcji o pośrednich koasymetriach oraz portfel S+ zawierający 30% akcji o najwyższej koasymetrii względem portfel rynkowy.

Do weryfikacji ekonometrycznej w pracy wykorzystano następujące modele:

μi = λ0 + λMi + λS βSi + ei

μi = λ0 + λMiβS + λSKS βSKSi + ei

gdzie μi to średnia wartość zwrotu przekraczająca stopę wolną od ryzyka (nadmiarowy zwrot), λ0, λMi, λSi to oszacowane parametry równań, to błędy, λSKS, βSKS to współczynnik beta modelu standardowego, βSi , βSKi to współczynniki beta aktywów w stosunku odpowiednio do portfela S- oraz spread między zwrotami portfeli S- i S+.

Wykazano, że włączenie dodatkowego czynnika znacząco zwiększa zgodność modelu z danymi rzeczywistymi. Stwierdza się zatem, że modele wyceny aktywów dla rynków wschodzących muszą uwzględniać poziom integracji i ewentualnie wskaźnik koasymetrii.

2.2 Istota modelu D - CAPM

Jeden z najczęstszych sposobów modyfikacji standardowego modelu wyceny opiera się na wykorzystaniu semi-wariancji jako miary ryzyka aktywów. W klasycznej teorii, za Markowitzem, taką miarą jest dyspersja zwrotów, która w równym stopniu traktuje odchylenia w górę i w dół od wartości oczekiwanej.

W przeciwieństwie do wariancji, semiwariacja „karze” tylko odchylenia w dół:

Korzeń semiwariacji nazywa się ryzyko wady- ryzyko odchylenia w dół. Należy zauważyć, że środek ten ma swoje wady i zalety.

Spośród niedociągnięć zauważamy, że pozytywna strona ryzyka związanego z przekraczaniem oczekiwań zostaje odrzucona. Ponadto takie „ryzyko” nie może być wykorzystane jako zmienność (zmienność), a następnie do wyceny pochodnych instrumentów finansowych.

Z drugiej strony zastosowanie semi-zmienności w ramach teorii portfela pozwala na osłabienie niektórych założeń tradycyjnego modelu wyceny aktywów finansowych (założenie o normalnym rozkładzie stóp zwrotu oraz założenie, że zachowanie inwestorów jest determinowane przez oczekiwane zwrot i rozproszenie zwrotów aktywów).

B. zauważa, że ​​po pierwsze, odchylenie standardowe może być stosowane tylko w przypadku symetrycznego rozkładu stóp zwrotu.

Po drugie, odchylenie standardowe może być bezpośrednio użyte jako miara ryzyka tylko wtedy, gdy rozkład zwrotów jest normalny. Te warunki nie są obsługiwane przez dane empiryczne.

Ponadto stosowanie współczynników beta, które są wyprowadzane w ramach tradycyjnego modelu behawioralnego, jako miary ryzyka na rynkach wschodzących jest kwestionowane przez wielu badaczy, możliwość zastosowania semiwariacji, wręcz przeciwnie, potwierdza dane empiryczne.

Zastosowanie semiwariacji jest również poparte rozważaniami intuicyjnymi. Zazwyczaj inwestorzy nie unikają ryzyka zwrotów powyżej średniej, unikają ryzyka zwrotów poniżej średniej lub poniżej pewnego celu. Ponieważ inwestowanie na rynkach wschodzących jest bardzo ryzykowne dla inwestora zachodniego, inwestor zachodni przede wszystkim unika ryzyka utraty pierwotnej wartości swojej inwestycji lub zgodnie z pracą unika obniżenia tej wartości poniżej pewnego docelowego poziomu. Dlatego jako miarę ryzyka na rynkach wschodzących wskazane jest stosowanie semi-dyspersyjności i odpowiednio standardowego semi-odchylenia.

W badaniach [Sintsov, 2003] testowano model, w którym ryzyko jest mierzone przy użyciu niższego momentu cząstkowego drugiego rzędu, czyli semiwariacji. Z jednej strony zastosowanie semiwariacji jest najpopularniejszą modyfikacją modelu CAPM, z drugiej strony zastosowanie semiwariacji pozwala na wykorzystanie dostępnych metod statystycznych do empirycznego testowania modelu cenowego.

W tym modelu behawioralnym tzw. semi-kowariancja, analogiczna do kowariancji w modelu standardowym, służy jako miara współzależności rentowności danego aktywa i aktywa rynkowego:


Półkowariancja jest również nieograniczona i zależna od skali. Ale można go również znormalizować dzieląc przez iloczyn standardowego odchylenia półwartościowego danego aktywa i portfela rynkowego:

Podobnie, dzieląc kowariancję przez semiwariancję portfela rynkowego, możemy znaleźć zmodyfikowany współczynnik beta:

Zmodyfikowana wersja beta jest używana w alternatywnym modelu cenowym. Model ten zaproponowany w nosi nazwę D-CAPM ( Zniżkowy model wyceny aktywów kapitałowych):

Proponuje się zatem zastąpienie współczynnika beta w tradycyjnym modelu CAPM zmodyfikowanym współczynnikiem beta, który jest miarą ryzyka aktywa w nowym modelu behawioralnym, w którym zachowanie inwestorów jest determinowane przez oczekiwania i częściowe rozproszenie zwroty.

Zmodyfikowany współczynnik beta można znaleźć jako stosunek pół-kowariancji aktywów i portfela rynkowego oraz pół-wariancji portfela rynkowego. Ponadto zmodyfikowany współczynnik beta można znaleźć za pomocą analizy regresji.

Jedna z możliwych niedoskonałości rynków wschodzących – silna asymetria zwrotów z aktywów jest uwzględniona w modelu D-CAPM. Okazało się, że zmodyfikowany współczynnik beta modelu D-CAPM lepiej nadaje się do opisu średniej stopy zwrotu na kazachskim rynku papierów wartościowych w porównaniu ze standardowym współczynnikiem beta.

Model DCAPM częściowo rozwiązuje problem niedoszacowania wymaganego zwrotu na rynkach wschodzących przy użyciu standardowego modelu CAPM. Dlatego preferowane wydaje się zastosowanie modelu D-CAPM na rynkach wschodzących. Istnieją również powody teoretyczne, ponieważ model D-CAPM ma mniej rygorystyczne założenia w porównaniu ze standardowym modelem CAPM.

Jednak rygorystyczne testy pokazują, że model D-CAPM nie odpowiada zwrotom z rynków wschodzących. Tym samym żaden z modeli wyceny aktywów kapitałowych: standardowy model CAPM w wersji Sharpe-Lintner, model CAPM w wersji Black, model D-CAPM nie odpowiada danym z rynku papierów wartościowych.

Być może główną przyczyną niepowodzenia prób opisania rynku wschodzącego prostymi modelowymi reprezentacjami jest niska płynność aktywów. Duże spready w kwotowaniach kupna i sprzedaży najlepiej odzwierciedlają obawy inwestorów dotyczące zdecydowanej większości aktywów. Brak potencjalnych sprzedających i kupujących stanowi poważne ryzyko dla każdego inwestora o rozsądnym horyzoncie inwestycyjnym i najwyraźniej każdy model odpowiedni dla rynku powinien to uwzględniać.

Rozdział 3. Empiryczne badania stosowalności modelu CAPM na rynkach wschodzących

3.1 Krytyka CAPM i alternatywnych miar ryzyka

Szereg badań empirycznych z lat 70. wykazało korzyści płynące z CAPM w przewidywaniu zwrotu z akcji. Wśród klasycznych dzieł znajdują się: ,,.

Jednak krytyka CAPM w kręgach akademickich rozpoczęła się niemal natychmiast po publikacji prac nad modelem. Na przykład praca Richarda Rolla skupia się na problemach związanych z definiowaniem portfela rynkowego.

W praktyce portfel rynkowy zostaje zastąpiony jakimś maksymalnie zdywersyfikowanym portfelem, który nie tylko jest dostępny dla inwestora na rynku, ale również podlega analizie (np. indeks giełdowy). Problem z pracą z takim portfelem proxy polega na tym, że wybór go może znacząco wpłynąć na wyniki obliczeń (np. wartość beta).

W pracach R. Levy'ego, M. Bluma i Scholesa-Willimsa uwagę skupiono na problemie stabilności kluczowego parametru САРМ - współczynnika beta, który jest tradycyjnie szacowany za pomocą regresji liniowej opartej na danych retrospektywnych metodą najmniejszych kwadratów (Zwykłe najmniejsze kwadraty, OLS).

Jest to w istocie kwestia stacjonarności gospodarki i możliwości konstruowania szacunków ryzyka na podstawie danych z przeszłości. Na podstawie wyników obliczeń i analizy dynamiki współczynnika beta szeregu poszczególnych akcji i portfeli papierów wartościowych R. Levy doszedł do wniosku, że dla żadnej akcji jej współczynnik beta nie jest stabilny w czasie i dlatego nie może służyć jako dokładna ocena przyszłego ryzyka. Z drugiej strony, beta portfela składającego się nawet z 10 losowo wybranych akcji jest dość stabilna i dlatego może być uważana za akceptowalną miarę ryzyka portfela. Badania M. Bluma wykazały, że z biegiem czasu współczynnik beta portfela zbliża się do jednego, a wewnętrzne ryzyko firmy zbliża się do średniej branżowej lub rynkowej.

Alternatywnym modelowym rozwiązaniem problemu stabilności parametrów CAPM są oszacowania uzyskiwane na rynku instrumentów pochodnych, gdy za podstawę przyjmuje się oczekiwania cen aktywów finansowych. Podejście to jest realizowane przez MSRM (Market-Derived Capital Pricing Model).

Praca Benz and Roll podnosi problem poprawności stosowania CAPM dla małych firm, tj. uwaga skupia się na problemie wielkości (efekt wielkości, efekt małej jędrności).

Kolejnym obszarem krytyki są ramy czasowe obliczania parametrów CAPM (tzw. problem horyzontu inwestycyjnego). Ponieważ w większości przypadków CAPM służy do analizy inwestycji o horyzoncie dłuższym niż jeden rok, obliczenia oparte na szacunkach rocznych uzależniają się od stanu rynku kapitałowego. Jeżeli rynek kapitałowy jest efektywny (przyszłe zwroty nie są z góry zdeterminowane dynamiką z przeszłości, ceny akcji cechuje błądzenie losowe), to horyzont inwestycyjny nie jest znaczący, a obliczenia oparte na wskaźnikach rocznych są uzasadnione. Jeśli rynku kapitałowego nie można uznać za efektywny, nie można ignorować czasu inwestycji.

Teza CAPM o znaczeniu wyłącznie systematycznych czynników ryzyka jest również problematyczna. Udowodniono empirycznie, że niesystematyczne zmienne, takie jak kapitalizacja rynkowa czy stosunek cena/zysk, mają wpływ na wymagany zwrot.

Badania z lat 80. i 90. wykazały, że CAPM beta nie była w stanie wyjaśnić różnic w rentowności branży, podczas gdy wielkość i inne cechy firmy były w stanie to zrobić.

Kolejnym obszarem podlegającym krytyce jest zachowanie inwestorów, którzy często kierują się nie spekulacją, a czystym ryzykiem. W jaki sposób

praktyka pokazuje, że inwestorzy są gotowi inwestować w aktywa charakteryzujące się dodatnią zmiennością (tj. nadwyżką rentowności ponad przeciętny poziom). Z drugiej strony inwestorzy negatywnie postrzegają aktywa o ujemnej zmienności. Wariancja dwukierunkowa jest funkcją odchylenia od średniej zarówno w górę, jak i w dół. W związku z tym, w oparciu o dwukierunkową kalkulację wariancji, akcje, które są niestabilne w kierunku zwyżkowym, są traktowane jako ryzykowne w takim samym stopniu, jak akcje, które są niestabilne w kierunku zniżkowym.

Na przykład badania empiryczne pokazują, że zachowanie inwestorów motywowane jest niechęcią do jednostronnego negatywnego ryzyka w przeciwieństwie do ryzyka całkowitego (lub dwustronnej wariancji).

Oczekiwana wariancja zwrotu jest kontrowersyjną miarą ryzyka z co najmniej dwóch powodów:

Dyspersja dwukierunkowa jest prawidłową miarą ryzyka tylko dla aktywów, których oczekiwany zwrot ma rozkład symetryczny

Dyspersję dwustronną można stosować bezpośrednio tylko wtedy, gdy rozkład symetryczny jest normalny.

Kolejny krytyczny obszar związany jest z założeniami dotyczącymi rozkładu prawdopodobieństwa cen i zwrotów z papierów wartościowych. Jak pokazuje praktyka, nie jest osiągane jednoczesne spełnienie wymagań dotyczących symetrii i normalności rozkładu oczekiwanego zwrotu z akcji. Rozwiązaniem problemu jest zastosowanie nie klasycznej (dwustronnej) dyspersji, ale jednostronnej (szkielet semiwariancji). Ta decyzja opiera się na następujących argumentach:

1) stosowanie dyspersji jednokierunkowej jest uzasadnione dla różnych rozkładów stóp zwrotu z akcji: zarówno symetrycznego, jak i asymetrycznego.

2) rozproszenie jednokierunkowe zawiera informacje dostarczane przez dwie charakterystyki funkcji rozkładu: rozrzut i skośność, co umożliwia wykorzystanie jednoczynnikowego modelu do oszacowania oczekiwanej stopy zwrotu z aktywa (portfela).

Problem asymetrii dochodowości rozwiązano w pracy metodą dolnych momentów cząstkowych (LPM), co pozwala na zbudowanie modelu wyceny równowagi dla aktywów finansowych, znanego jako LPM - CAPM.

W artykule Hogana i Vorena z 1974 r. wykazano analitycznie, że zastąpienie tradycyjnej wariancji zwrotu portfela jednostronną do oceny ryzyka i przejście do modelu średniej semiwariancji (metody mean-semivariance framework) nie zmienia fundamentalnej struktury CAPM.

3.2 Przegląd badań empirycznych nad koncepcją ryzyka i zwrotu na rynkach wschodzących

Specyficzne problemy z zastosowaniem CAPM pojawiają się na rozwijających się rynkach kapitałowych, dla których raczej trudno jest uzasadnić parametry modelu (zwrot bez ryzyka, premia za ryzyko rynkowe, współczynnik beta) według lokalnego rynku kapitałowego ze względu na brak efektywność informacyjna oraz niska płynność aktywów zbywalnych.

Szereg badań empirycznych dowodzi nieprawidłowości w stosowaniu CAPM szczególnie na rynkach wschodzących w porównaniu z rozwiniętymi (np. , , ). Odnotowaną cechą rynków wschodzących jest znaczenie określonych ryzyk związanych z polityką państwa w zakresie regulacji gospodarki, z instytucjonalną ochroną inwestorów oraz z ładem korporacyjnym. Ze względu na korelację pomiędzy rynkami wschodzącymi a światowym rynkiem kapitałowym, ryzyka te nie są eliminowane poprzez dywersyfikację kapitału globalnego inwestora.

Kolejnym problemem rynków wschodzących jest brak stacjonarności i dynamicznych zmian związanych z liberalizacją lokalnych rynków kapitałowych.

Beckert i Harvey twierdzą, że oceniając wymagany zwrot, rynki rozwinięte i wschodzące należy rozpatrywać z różnych pozycji, ponieważ należy brać pod uwagę stopień integracji rynku lokalnego z globalnym rynkiem finansowym. Stopień integracji nie jest wartością stałą, zmienia się w czasie. Wpływa to na kształtowanie się stóp zwrotu.

W artykule z 1995 roku Beckert twierdzi, że istnienie barier w przepływie kapitału i inwestycji międzynarodowych automatycznie oznacza, że ​​czynniki ryzyka na rynkach wschodzących różnią się od tych w krajach rozwiniętych.

Artykuł dowodzi, że stopień integracji z globalnym rynkiem kapitałowym (lub występowanie barier w przepływie kapitału) powinien decydować o wyborze modelu uzasadnienia kosztu kapitału własnego.

Alternatywny punkt widzenia znajduje potwierdzenie w pracach Rowenhorsta. Autor doszedł do wniosku, że pod względem czynników wpływu nie ma różnicy między rynkami rozwiniętymi i wschodzącymi. Czynniki wyjaśniające zwrot z kapitału, który okazał się istotny na rynkach rozwiniętych, są również istotne na rynkach wschodzących. Czynniki te obejmują:

wielkość firmy;

· zmienne odzwierciedlające stopień ryzyka operacyjnego i finansowego;

płynność akcji;

perspektywy rozwoju.

W krajach Ameryki Południowej (Argentyna, Brazylia, Wenezuela) prowadzono aktywne badania nad testowaniem modyfikacji CAPM z uwzględnieniem niedorozwoju rynków kapitałowych. Zaleca się, aby wybór modyfikacji był powiązany ze stopniem rozwoju lokalnego rynek finansowy oraz jego integrację z globalnym rynkiem kapitałowym.

Schemat 1. Modyfikacje CAPM w zależności od stopnia integracji i segmentacji rynku.

Model Godfreya-Espinosa skupia się na wyliczeniu współczynnika beta i premii za ryzyko rynkowe według rynku lokalnego z wprowadzeniem premii za ryzyko kraju (CRP) w korekcie globalnej stopy zwrotu wolnej od ryzyka, a także wprowadza korekta do premii za ryzyko inwestycyjne w celu uniknięcia podwójnego liczenia mnożnika ryzyka (1-R2), gdzie R2 jest współczynnikiem determinacji równania regresji wiążącego rentowność spółki na rynku lokalnym ze zmiennością premii za ryzyko kraju.

Praca Gonzaleza testuje model CAPM na próbie spółek, których akcje notowane są na Giełdzie Papierów Wartościowych w Caracas (Wenezuela). Wykorzystując metodę regresji na danych za okres 6 lat (1992-1998) autor dochodzi do wniosku, że model CAPM nie sprawdza się na rynku wenezuelskim.

Ten wniosek wynikał głównie z odrzucenia hipotezy, że istnieje pozytywny związek między ryzykiem a zwrotem zapasów. Jednak wyniki badania Gonzaleza F. wykazały, że po pierwsze zależność między ryzykiem (jako wskaźnik użyto współczynnika beta) a zwrotem jest liniowa, a po drugie ryzyko systematyczne nie jest jedynym czynnikiem wpływającym na oczekiwany zwrot na własny kapitał.

Podobne wyniki uzyskano w trakcie badań M. Omrana na egipskim rynku kapitałowym. Próba obejmowała 41 spółek o najbardziej płynnych akcjach. Panel danych został utworzony za okres grudzień 2001-grudzień 2002. w oparciu o logarytmiczne stopy zwrotu z cotygodniowych obserwacji.

Testy empiryczne przeprowadzone przez Omrana M. sugerują, że ryzyko rynkowe jest istotnym czynnikiem wyjaśniającym oczekiwany zwrot z egipskich akcji. Ujawniony paradoks badania polega na tym, że zwrot z portfela składającego się z akcji spółek o niskich współczynnikach beta (głównie są to firmy produkujące dobra konsumpcyjne i świadczące usługi finansowe) jest wyższy niż zwrot z portfela akcji spółek w budownictwie, tekstyliach i hotelarstwie o wyższych wartościach beta. Zdaniem autora przyczyną tej rozbieżności jest państwowa nacjonalizacja lat 50.-60., która w większym stopniu wpłynęła na zagrożenia sektora przemysłowego i budowlanego gospodarki niż na firmy produkujące dobra konsumpcyjne, a także instytucje finansowe .

Interesujące są badania rynków wschodzących poświęcone doborowi miary ryzyka inwestycyjnego. Z reguły w takich pracach badania prowadzone są w ramach kilku modeli: CAPM i jego alternatyw. Na przykład Hwang i Pedersen testują trzy modele: klasyczny CAPM oraz dwa modele wykorzystujące asymetryczne miary ryzyka - LPM-CAPM (LowerPartialMomentCAPM) i ARM (AsymmetricResponseModel).

Osobliwością modeli alternatywnych jest to, że według autorów nadają się one do przypadków nieprawidłowego rozkładu stóp zwrotu i niepłynnego lokalnego rynku kapitałowego. Badanie zostało przeprowadzone na próbie 690 firm na rynkach wschodzących w okresie 10 lat (kwiecień 1992-marzec 2002). Na podstawie wyników pracy Hwang S. i Pedersen C. doszli do wniosku, że pod względem mocy wyjaśniającej CAPM nie ustępuje modelom alternatywnym. W próbie krzyżowej moc wyjaśniająca CAPM osiągnęła 80% w przypadku danych dotyczących zwrotów tygodniowych i miesięcznych oraz 55% w przypadku danych zwrotów dziennych. Nie zidentyfikowano znaczących korzyści wynikających z asymetrycznych miar ryzyka. Ponadto, przeprowadzając analizę, autorzy podzielili próbę 26 krajów rozwijających się na regiony, a następnie podzielili cały okres obserwacji na dwa okresy – przed i po kryzysie azjatyckim w 1997 roku.

Z tego powodu Hwang S. i Pedersen C. zidentyfikowali znaczący wpływ lokalnych ryzyk na wschodzących rynkach kapitałowych, co jest zgodne z wynikami cytowanych powyżej prac.

Badanie Dairyl Collins testuje różne miary ryzyka dla 42 krajów rynków wschodzących: systematyczne (beta), całkowite (odchylenie standardowe), idiosynkratyczne, jednostronne (jednostronne odchylenie, jednostronne beta i VaR8) oraz wielkość rynku (określona według średniej kapitalizacji kraju). ), wskaźniki skośności i kurtozy.

Testy przeprowadzono z zastosowaniem podejścia ekonometrycznego (jak w większości podobnych prac) z pozycji inwestora międzynarodowego w okresie 5 lat (styczeń 1996-czerwiec 2001) na podstawie tygodniowych zwrotów. W zależności od wielkości rynku kapitałowego, płynności i stopnia rozwoju, początkowa próba 42 krajów została podzielona na trzy grupy: pierwsza poziom - kraje z dużym rynkiem kapitałowym (np. Brazylia, RPA, Chiny), a także z małym rynkiem, ale rozwiniętym gospodarczo i informacyjnie; drugi poziom - mniejsze rynki wschodzące (Rosja), trzeci poziom - małe rynki (takie jak Łotwa, Estonia, Kenia, Litwa, Słowacja itp.).

Zgodnie z wynikami badania, wartości beta dla niektórych rynków okazały się niższe od oczekiwanych, co daje fałszywy sygnał o niskim ryzyku dla inwestorów. Wniosek z pracy jest taki, że współczynnik beta (a co za tym idzie model CAPM) jest błędnie stosowany do całej populacji krajów rozwijających się. D. Collins przekonuje, że nie ma jednego wskaźnika ryzyka, który byłby odpowiedni dla każdego kraju z grupy krajów rozwijających się.

Dla krajów pierwszego poziomu najodpowiedniejszym wskaźnikiem ryzyka jest współczynnik uwzględniający wielkość rynku, dla drugiego poziomu jednostronne wskaźniki ryzyka (w porównaniu z innymi wskaźnik VaR wykazał się najlepszymi wynikami) , trzeci poziom - albo odchylenie standardowe, albo ryzyko idiosynkratyczne. Ryzyko idiosynkratyczne to ta część każdego rynku finansowego, która nie zależy od ogólnego poziomu ryzyka finansowego występującego w danej gospodarce. Nazywane również ryzykiem niesystematycznym w przeciwieństwie do ryzyka systematycznego.

Podobny wniosek dotyczący dopuszczalności różnych miar systematycznego jednostronnego ryzyka dla krajów o doskonałej charakterystyce giełdowej znajduje się w . W latach 1995-2004 przeanalizowano możliwość zastosowania szeregu jednostronnych miar ryzyka (BL, HB, E-beta) dla 27 rynków wschodzących (próbka obejmowała rynki Azji i Ameryki Łacińskiej, rynki Afryki i Europy Wschodniej, w tym Rosję). Indeks rynków wschodzących MSCI jest używany jako portfel globalny, a 10-letnie obligacje rządu USA (Tbond) są stosowane jako stopa wolna od ryzyka. Wykazano, że dla rynków o dużej asymetrii w rozkładzie zwrotów (duża skośność) najbardziej akceptowalną miarą ryzyka systematycznego jest HB-beta. W przypadku rynków, na których zaobserwowano znaczne nadwyżki zwrotów, BL-beta ma pierwszeństwo przed innymi miarami ryzyka.

W przypadku krajów o podobnej charakterystyce geograficznej i makroekonomicznej w Europie Środkowej i Wschodniej przeprowadzono empiryczne badanie korzyści płynących z DСАРМ. Dokonano analizy czynników kształtujących rentowność firm z 8 krajów byłego bloku socjalistycznego: Czech, Słowacji, Węgier, Polski, Słowenii, Estonii, Łotwy i Litwy w okresie 1998-2003… Autorzy wskazują znaczenie jednostronnych miar ryzyka wraz z zachowaniem wpływu określonego ryzyka.

Wpływ segmentacji rynku na poziom wymaganego zwrotu dla inwestorów badał Campbell Harvey. Autorzy artykułu argumentują, że koszt kapitału na rynkach podzielonych na segmenty będzie wyższy niż na rynkach zintegrowanych, ponieważ inwestorzy będą domagać się większej rekompensaty za ponoszenie lokalnego, idiosynkratycznego ryzyka. Sugeruje to, że każdy wzrost stopnia integracji finansowej powinien prowadzić do obniżenia kosztu kapitału własnego.

René Stulz zaproponował parametry diagnostyczne, które umożliwiają uwzględnienie premii za ryzyko kraju (CRP) w modelu ryzyko-zwrot inwestora globalnego.

Należy wziąć pod uwagę stopień integracji (obecność barier w przepływie kapitału) oraz kowariancję zwrotów na rynku lokalnym i globalnym. W pracy podano charakterystykę formalnych i nieformalnych barier w przepływie kapitału obserwowanych na segmentowanych rynkach.

Wiele badań skupiało się na wpływie liberalizacji rynku kapitałowego na koszt kapitału własnego. Przykładowo na podstawie modelu stopy dywidendy (model Gordona) autorzy wykazują, że liberalizacja segmentowanych rynków kapitałowych prowadzi do obniżenia kosztu kapitału własnego średnio o 50%. Podobne badanie oparte na analizie zmian stóp dywidendy i tempa wzrostu dla 20 rynków wschodzących (w tym krajów Ameryki Południowej, Azji i Afryki) przedstawiono w . Jako zewnętrzny znak liberalizacji autor wybrał tymczasowy termin, w którym inwestorzy zagraniczni uzyskują możliwość zakupu akcji spółek na lokalnym rynku. Artykuł pokazuje zmniejszenie kosztów kapitałowych w wyniku liberalizacji średnio o prawie 50%.

Metoda analizy zdarzeń (event study) wraz z oceną skumulowanej nadwyżki zwrotu z dynamiki cen kwitów depozytowych (ADR) 126 firm z 32 rynków lokalnych pozwoliła na wykazanie dla okresu 1985-1994. 42% redukcja kosztów kapitału własnego w eksploatacji.

Praca Dayrila Collinsa i Marka Abrahamsona analizuje koszt kapitału własnego za pomocą modelu CAPM na 8 rynkach kapitałowych kontynentu afrykańskiego (Egipt, Kenia, Maroko itp.) z perspektywy globalnego inwestora. Badanie przeprowadzono z alokacją 10 głównych sektorów gospodarki. Zidentyfikowano dwa okresy, które charakteryzują różne stopnie otwartości gospodarek (1995-1999 i 1999-2002).

Autorzy wskazują na spadek w czasie premii za ryzyko na afrykańskich rynkach kapitałowych. Największe zmiany zaszły w Zimbabwe i Namibii, najmniejsze w Egipcie, Maroku i Kenii. Średni koszt kapitału własnego w 2002 r. wynosi około 12% w dolarach amerykańskich. Sektory z najcięższa waga w gospodarce wykazują najniższy koszt kapitału.

Wniosek

Model wyceny aktywów długoterminowych (CAPM) może pomóc Ci zdecydować, które akcje dodać do swojego portfela inwestycyjnego. Model ten pokazuje bezpośredni związek między ryzykiem papieru wartościowego a jego zwrotem, co pozwala mu wykazać godziwy zwrot w stosunku do związanego z nim ryzyka i odwrotnie. Użyj tego długoterminowego modelu finansowego z innymi strategiami i metodami doboru akcji, a będziesz mieć pewność, że będziesz mieć dobry i dochodowy portfel.

Sam CAPM jest elegancką teorią naukową o solidnych podstawach matematycznych. Aby to „działało”, konieczne jest spełnienie takich oczywiście nierealistycznych warunków, jak obecność absolutnie efektywnego rynku, brak kosztów transakcyjnych i podatków, równy dostęp wszystkich inwestorów do środków kredytowych itp. Niemniej jednak takie abstrakcyjna konstrukcja logiczna zyskała niemal powszechne uznanie w świecie realnych finansów.

Zastosowanie CAPM daje kierownikowi finansowemu narzędzie do przewidywania kosztów pozyskania nowego kapitału na wdrożenie projekty inwestycyjne. Finanse każdego przedsiębiorstwa są systemem otwartym, dlatego planując swoje inwestycje, należy wziąć pod uwagę sytuację na rynku finansowym. Menedżerowie firm mogą nie wiedzieć absolutnie nic o indywidualnych cechach i osobistych preferencjach potencjalnych inwestorów. Nie zwalnia to ich z obowiązku przewidywania głównej potrzeby każdego inwestora – uzyskania zwrotu rekompensującego ryzyko inwestycji. Pomóc im w tym może zastosowanie modelu wyceny aktywów finansowych.

Testowanie opracowanej przez Blacka wersji CAPM jako modelu dwuczynnikowego wykazało, że model ten nie ma zastosowania na rynkach wschodzących. Testy te pozwoliły jednak na wyodrębnienie portfeli wyraźnie nieobserwowalnych w wersji Blacka – portfela rynkowego i portfela z zerową betą.

Okazało się, że pierwsza z nich to głównie papiery korporacyjne, druga – rządowe papiery wartościowe i waluty, co wydaje się całkiem rozsądne i daje nadzieję na sukces w kolejnych, dokładniejszych testach modelu.

Być może główną przyczyną niepowodzenia prób opisania rynku wschodzącego prostymi modelowymi reprezentacjami jest niska płynność aktywów. Duże spready w kwotowaniach kupna i sprzedaży najlepiej odzwierciedlają obawy inwestorów dotyczące zdecydowanej większości aktywów. Brak potencjalnych sprzedających i kupujących stanowi poważne ryzyko dla każdego inwestora o rozsądnym horyzoncie inwestycyjnym i najwyraźniej każdy model odpowiedni dla rynków wschodzących powinien to uwzględniać.

Jedna z możliwych niedoskonałości rynków wschodzących – silna asymetria zwrotów z aktywów jest uwzględniona w modelu D-CAPM. Okazało się, że zmodyfikowana beta modelu D-CAPM lepiej nadaje się do opisu średniej stopy zwrotu na wschodzącym rynku papierów wartościowych w porównaniu ze standardową beta. Model DCAPM częściowo rozwiązuje problem niedoszacowania wymaganego zwrotu na rynkach wschodzących przy użyciu standardowego modelu CAPM. Dlatego preferowane wydaje się zastosowanie modelu D-CAPM na rynku wschodzącym. Istnieją również powody teoretyczne, ponieważ model D-CAPM ma mniej rygorystyczne założenia początkowe w porównaniu ze standardowym modelem CAPM. Jednak rygorystyczne testy pokazują, że model D-CAPM nie odpowiada zwrotom z rynków wschodzących. Tym samym żaden z rozważanych modeli wyceny aktywów kapitałowych: standardowy model CAPM w wersji Sharpe-Lintner, model CAPM w wersji Black, model D-CAPM nie odpowiada danym z kazachskiego rynku papierów wartościowych.

Tym samym wariacje modelu CAPM nie będą mogły być zastosowane na kazachskim rynku kapitałowym, dopóki nie pojawi się przyzwoita struktura organizacyjna rynku akcji z pełnoprawnymi emitentami. Główny współczynnik tego modelu „beta” składa się ze wskaźników dla papierów wartościowych, których w tej chwili nie można odpowiednio obliczyć.

Lista wykorzystanej literatury

1.http://berg.com.ua/fundam/capm/

2.http://books.efaculty.kiev.ua/fnmen/3/g5/6.htm

3. A.V. Bukhvalov, V.L. Okułow. Klasyczne modele wyceny aktywów kapitałowych a rosyjski rynek finansowy. Część 1: empiryczna weryfikacja modelu CAPM. Sprawozdania naukowe nr ...–2006. Petersburg: Instytut Badawczy Zarządzania, St. Petersburg State University, 2006

4. AV Bukhvalov, V.L. Okulov KLASYCZNE MODELE CENOWE AKTYWÓW KAPITAŁOWYCH I ROSYJSKIEGO RYNKU FINANSOWEGO CZĘŚĆ 2. MOŻLIWOŚĆ ZASTOSOWANIA WARIANTÓW MODELU CAPM NR 36(R)-2006

5. Telewizja Teplova, N.V. Selivanova Badanie empiryczne możliwości zastosowania modelu DCAPM na rynkach wschodzących, publikacja w czasopiśmie „Corporate Finance” nr 3-2007

6. Aizin K.I., Livshits V.N. Ryzyko i rentowność papierów wartościowych na giełdach gospodarki stacjonarnej i niestacjonarnej // Audyt i analiza finansowa, № 4, 2006

załącznik

Obliczanie współczynnika „beta”

Data KASE Korporacja X KASE,% Korporacja X,%
17.03.2008 923,23 122,75
18.03.2008 939 118,6 1,71% -3,38%
19.03.2008 960,73 122,5 2,31% 3,29%
20.03.2008 978,96 121 1,90% -1,22%
21.03.2008 957 123 -2,24% 1,65%
24.03.2008 949,14 123,5 -0,82% 0,41%
25.03.2008 947,4 122,75 -0,18% -0,61%
26.03.2008 938,97 122,5 -0,89% -0,20%
27.03.2008 959,31 125 2,17% 2,04%
31.03.2008 981,86 128,5 2,35% 2,80%
01.04.2008 995,57 130 1,40% 1,17%
03.04.2008 1 009,33 130 1,38% 0,00%
04.04.2008 1 003,17 124,65 -0,61% -4,12%
07.04.2008 1 004,37 125 0,12% 0,28%
08.04.2008 1 006,26 125,5 0,19% 0,40%
11.04.2008 1 030,04 125,25 2,36% -0,20%
14.04.2008 1 024,08 121,55 -0,58% -2,95%
15.04.2008 1 035,79 130 1,14% 6,95%

Wstęp

Marketing empiryczny jest wszędzie. Jest obecna na wielu różnych rynkach (konsumenckim, przemysłowym, usługowym, technologicznym) i przejawia się w wielu różnych branżach. Wiele organizacji wykorzystuje siłę marketingu empirycznego, aby opracowywać nowe produkty, komunikować się z konsumentami, poprawiać relacje sprzedażowe, dopasowywać partnerów biznesowych, projektować powierzchnie handlowe i tworzyć witryny internetowe. I ten trend wciąż rośnie. Marketerzy coraz częściej odchodzą od tradycyjnego marketingu funkcji i korzyści na rzecz kształtowania doświadczeń swoich klientów.

Celem tego kursu jest przegląd teoretycznych podstaw marketingu empirycznego. Aby osiągnąć ten cel, w trakcie zajęć rozwiązywane są następujące zadania badawcze: rozważenie istoty badań empirycznych i ich etapów, badań społecznych, badanie doświadczeń empirycznych, a także rozważenie zakresu i zakresu zastosowań marketingu empirycznego.

Empiryczne badania marketingowe

Istota empirycznych badań marketingowych

Marketing empiryczny polega na tworzeniu połączeń między marką a konsumentami poprzez dostarczanie tym ostatnim emocjonalnie i intelektualnie angażującego doświadczenia. Definicja ta odzwierciedla drugą nazwę rozważanego pojęcia: marketing empiryczny (z angielskiego experience - experience, experience).

Mówiąc o istocie badań marketingowych można bezwarunkowo przypisać je badaniom naukowym. Rzeczywiście tak właśnie jest, ponieważ ma na celu rozwiązywanie jasno określonych zadań; zaprojektowane w celu dostarczenia praktykom wiarygodnych i uzasadnionych informacji; przy jego prowadzeniu wykorzystywane są naukowe metody zbierania i przetwarzania informacji itp. A jednak jest jedna okoliczność, która wymaga wyjaśnienia w tym zakresie.

Czym na przykład różnią się badania marketingowe od badań socjologicznych opartych na jasnych zasadach naukowych? Zwróćmy uwagę na następujące ważne okoliczności w tym zakresie. Badania marketingowe (zwane dalej MI) to nie tylko proces zbierania i analizy informacji, ale także specyficzny, dodatkowy sposób komunikacji, kanał komunikacji z rynkiem odpowiednich towarów, potencjalnymi partnerami, konsumentami. Często w imieniu klienta, już w trakcie prowadzenia badania marketingowego, może powstać sieć dystrybucji (czasem nawet z wykorzystaniem zespołów ankieterów prowadzących badanie).

Konieczne jest wyróżnienie dwóch głównych odmian MI, ze względu na jego ogólne ukierunkowanie, na same cele działalności badawczej.

Badania teoretyczne i stosowane (prawdopodobnie „czysto” teoretyczne badania marketingowe nie mogą być, ponieważ główne prawa ekonomiczne funkcjonujące w marketingu są studiowane na kursach mikroekonomii i wielu innych podobnych dyscyplinach), których celem jest identyfikacja i poszukiwanie rozwiązania mechanizmy problemy marketingowe poprzez rozwój nowych podejść do ich badania i interpretacji. Na przykład możemy mówić o rozwoju nowych podejść do klasyfikacji konsumentów, nowych jakościowo, cechach badań rynku, opracowaniu nowych koncepcji promocji i reklamy produktów itp.

Empiryczne badania marketingowe to badania naukowe mające na celu uzyskanie wiedzy faktograficznej, czyli ustalenie i uogólnienie faktów społecznych poprzez bezpośrednią lub pośrednią rejestrację zdarzeń charakterystycznych dla badanych zjawisk społecznych, obiektów, procesów.

Rozważ empiryczne metody badań marketingowych:

1. Obserwacja.

Metoda ta zakłada, że ​​badacz znajduje się w bliskiej odległości od interesującego go obiektu, np. konfliktu moralno-prawnego, oraz ma możliwość zobaczenia i naprawienia wszystkich faz jego socjodynamiki.

Obserwację można włączyć, gdy badacz wciela się w jednego z uczestników badanego fragmentu stosunków prawnych. Daje to dodatkowe możliwości zagłębienia się w istotę konfliktu prawnego, w sfery motywacyjne jego uczestników.

Przy normalnej obserwacji nieuczestniczącej zebrane informacje mogą nie być tak głębokie. Ale jego zalety polegają na tym, że pozostając obserwatorem zewnętrznym, socjolog z większym prawdopodobieństwem zachowuje postawę bezstronności i obiektywizmu, unikając elementów wartościowania przy wydawaniu sądów.

Konieczne jest rozróżnienie między obserwacją ukrytą, gdy uczestnicy badanych stosunków prawnych nie podejrzewają, że socjolog jest nimi zainteresowany, a obserwacją jawną, gdy uczestnicy mają świadomość toczącego się badania.

Taka gradacja obserwacji jest również możliwa, np. ekstensywna, gdy pole widzenia jest dość rozległym tematem, zajmującym znaczące miejsce w przestrzeni społecznej, i intensywna, gdy przedmiot badań nie jest duży objętościowo i całkowicie pasuje w polu widzenia jednego socjologa. W drugim przypadku obserwacja jest niezwykle skupiona i skuteczniejsza.

Metoda obserwacji jest wygodna przy badaniu obiektów lokalnych, fragmentarycznych, o małej objętości i liczbie uczestników oraz łatwo dostępnych.

2. Analiza dokumentów.

Gdy jakaś rzeczywistość prawna jest poza zasięgiem bezpośredniego badania empirycznego (np. zniknęła z teraźniejszości i pozostała w historycznej przeszłości), ale pozostały z niej pojedyncze teksty lub zespoły dokumentów pisanych, to te ostatnie mogą służyć jako źródło informacji dla socjologa. Dokumenty jako artefakty, czyli sztuczne, drugorzędne fakty, mogą świadczyć o rzeczywistych, niegdyś istniejących, pierwotnych faktach życia prawnego społeczeństwa i jednostki. Różne akty ustawodawcze, kodeksy, dekrety rządowe, protokoły z czynności śledczych i sądowych, pisemne zeznania uczestników różnych postępowań sądowych, a także prace publicystyczne i artystyczne obejmujące różne problemy prawne – wszystko to może dostarczyć socjologom niezbędnych informacji. W ich analizie socjolog staje się prawnikiem, a prawnik socjologiem. Jedno i to samo wydarzenie poszukuje tego pierwszego jako typowego faktu społecznego, a drugiego jako charakterystycznego zjawiska prawnego-casusu. Wzięte razem oba te poglądy, socjologiczna i orzecznicza, dają trójwymiarowy obraz badanej rzeczywistości społeczno-prawnej, pozwalają ustalić w niej takie właściwości i granice, które badacze, działając oddzielnie, mogliby przejść nie zauważając ich. Przewaga socjologii prawa jako dyscypliny teoretycznej polega właśnie na tym, że jej przedstawiciel rozwija się w sobie jednocześnie silne strony zarówno socjolog, jak i prawnik.

Jeżeli dokumenty nie mają charakteru czysto prawnego, ale ze względu na pewne okoliczności interesują socjologa, to staje przed trudnym zadaniem wyodrębnienia informacji czysto prawnych z ich kontekstu. Jednym ze sposobów rozwiązania tego problemu jest analiza treści. Stosuje się go w obecności obszernego materiału tekstowego w celu określenia liczby zawartych w nim określonych jednostek treściowo-semantycznych. Na przykład analiza wszystkich numerów gazety głównej „Prawda” z 1937 r. i obliczenie całkowitej liczby egzekucji „wrogów ludu”, o których donosi, może dostarczyć dość wymownych informacji o stanie sowieckiego wymiaru sprawiedliwości, m.in. stopień cywilizacji, człowieczeństwo, sprawiedliwość. Socjologowie prawa często odwołują się do przykładu analizy treści związanej z działalnością Międzynarodowego Instytutu Praw Człowieka w Strasburgu. W 1971 roku jego pracownicy podjęli próbę zidentyfikowania słów, które najczęściej występują w oficjalnych dokumentach prawnych na szczeblu państwowym i międzynarodowym. Pierwsze trzy miejsca zajęły odpowiednio słowa prawo, równość i wolność. Oznacza to, że zidentyfikowano priorytetowe wartości działań polityczno-prawnych społeczności międzynarodowej, służące jako wytyczne dla praktycznych wysiłków państw i narodów [4].

W celu zebrania informacji charakteryzujących stan różnych, archaicznych i współczesnych form prawa zwyczajowego, może zainteresować się folklor – mity antyczne, opowieści ludowe, legendy, a także różne materiały etnograficzne.

Za pomocą Ta metoda mówimy o skrupulatnie metodycznej lekturze tekstów według gotowego, wieloetapowego programu. Wymagane informacje w takich przypadkach mogą być zbierane dosłownie krok po kroku i przez wystarczająco długi okres czasu.

Socjologowie prawa, obdarzeni artystycznym zacięciem, mogą z powodzeniem pracować z dziełami literackimi wybitnych pisarzy jako źródłami informacji społeczno-prawnej. Dlatego francuscy socjologowie skłaniają się ku przekonaniu, że solidny materiał z socjologii własności jest dostępny w powieściach Komedii ludzkiej O. Balzaca, a o socjologii rodziny w wielotomowej epopei E. Zoli Rougon-Macquart. Podobnie dla rosyjskich (i nie tylko rosyjskich) socjologów praca F. M. Dostojewskiego jest nieocenionym źródłem informacji o socjologii prawa i przestępczości.

Analiza dokumentów jest istotna w przypadkach, gdy socjologowie mają do czynienia z takimi strukturami systemu prawnego, których działalność jest ściśle udokumentowana. Jeśli weźmiemy pod uwagę, że jakaś część tej dokumentacji jest utajniona, a zawarte w niej informacje przeznaczone są dla konkretnych specjalistów, to należy uznać, że organy ścigania potrzebują własnego personelu socjologicznego. Mogliby, poprzez swoje badania analityczne, stanowić istotną pomoc w samodoskonaleniu systemu prawnego.

3. Ankieta (wywiady, pytania, testy).

Wśród socjologicznych metod zbierania informacji pierwotnej ważne miejsce zajmuje badanie. Jest używany w przypadkach, gdy obserwacja jest niemożliwa lub niepraktyczna. W razie potrzeby ucieka się do rozpoznania stanu opinii publicznej na temat wszelkich istotnych wydarzeń w życiu społecznym i prawnym państwa i społeczeństwa obywatelskiego. Sondaże są ważne w przededniu takich wydarzeń w życiu politycznym i prawnym społeczeństwa, jak referenda. Obejmujące niezbyt wielu obywateli są próbnymi pomiarami stanu opinii publicznej i swoistą próbą przed nadchodzącym

Wywiad wygląda jak osobista rozmowa socjologa z interesującą go osobą. Taka rozmowa najczęściej ma charakter pytań i odpowiedzi i może odbywać się osobiście lub przez telefon. Otrzymane odpowiedzi są rejestrowane, przetwarzane, podsumowywane, skorelowane z wynikami innych podobnych wywiadów.

Wywiad może być nagrany na taśmę. Samo nagranie może być wykorzystane na różne sposoby, w zależności od ustawień badawczych ankietera. Na przykład w 1959 roku amerykański Truman Capote opublikował książkę opartą na nagraniach taśmowych swoich rozmów z dwoma młodymi skazanymi przestępcami. Jakiś czas później ukazało się jej rosyjskie tłumaczenie (Morderstwo zwyczajne. - M., 1965).

Zadawanie pytań różni się od rozmowy kwalifikacyjnej tym, że może być nie tylko indywidualne, ale również grupowe. Ponadto zakłada, że ​​socjolog dysponuje przygotowanym kwestionariuszem. Jego zaletą jest to, że pozwala na jednoczesne przesłuchanie dużej liczby osób. Kolejną wyraźną zaletą ankiety jest to, że można ją nie tylko nazwać, ale również anonimowo. Ta druga opcja dla socjologów jest często lepsza niż pierwsza, ponieważ pozwala respondentom udzielać szczerych odpowiedzi na pytania, które w języku potocznym nazywane są „łaskotki”.

Testowanie to technika skomplikowanego zadawania pytań. Specjaliści opracowują specjalny rodzaj kwestionariusza (testu), który zawiera znaczną liczbę niejednorodnych pytań. Celem testu jest zmuszenie respondenta do „wypowiedzenia się” lub „wypuszczenia”, czyli udzielenia odpowiedzi na te pytania, na które nie odpowiedziałby w normalnym wywiadzie lub kwestionariuszu. Jednocześnie testy pozwalają ujawnić nieświadome postawy jednostek, ukryte nawet przed ich własnym zrozumieniem.

Ta technika jest ważna w badaniu sfera motywacyjna indywidualna świadomość prawna. Ma wielkie perspektywy w badaniach kryminologicznych.

4. Eksperyment socjologiczny.

Aby potwierdzić swoją hipotezę, obalić sprzeczne z nią założenia, socjologowie mogą modelować potrzebną im sytuację społeczno-prawną. Model tego rodzaju może być albo całkiem realny, to znaczy sytuacyjno-empiryczny, albo mentalny, urojony.

Stosunki prawne to obszar, na który jednostki są bardzo bolesne i na wszelkie przejawy bardzo ostro reagują. Zawsze bardzo trudno jest przeprowadzić jakiekolwiek prawdziwe eksperymenty na jego „terytorium”. Jeśli chodzi o eksperymenty myślowe z zakresu prawa, kultura przyszła na ratunek socjologom. Od niepamiętnych czasów powstawały utalentowane dramaty, powieści, opowiadania tworzone przez wybitnych twórców tekstu, które badają najróżniejsze aspekty stosunków prawnych, najbardziej złożone struktury indywidualnej świadomości prawnej i kryminalnej. Stworzone przez grę twórczej wyobraźni są niczym innym jak eksperymentami myślowymi. A socjologowie oczywiście nie powinni pomijać klasycznych i nowoczesnych dzieł sztuki o orientacji prawno-kryminologicznej. Jednocześnie, w warunkach nie postawionych przez siebie eksperymentów myślowych, będą musieli posłużyć się metodą socjologicznej analizy dokumentów, którymi w tym przypadku będą teksty literackie.

5. Metoda biograficzna.

Można to przypisać analizie dokumentów, ale można ją również uznać za metodę niezależną. Jest to sposób na badanie danych biograficznych w celu zebrania niezbędnych informacji o charakterze psychologicznym, socjologicznym, moralnym i prawnym. Metoda biograficzna pozwala formułować hipotezy i znajdować dowody dotyczące specyfiki związku określonej osoby lub określonej kategorii jednostek z określonymi zjawiskami i procesami społecznymi i prawnymi, a także formułować założenia dotyczące charakteru ich świadomości prawnej i typowe cechy ich zachowań społecznych i prawnych.

Aktywne wykorzystanie metody biograficznej we współczesnej teorii społeczno-prawnej rozpoczęło się w pierwszych dekadach XX wieku. i wiąże się z wydaniem dzieł W. Healy'ego „Przestępca” (1915) i „Konflikty emocjonalne i złe zachowanie” (1917), „Dostojewski i ojcobójstwo” Z. Freuda (1928). Wielu badaczy zachodnich, m.in. F. Znaniecki, C. Cooley, G. D. Lasswell, D. G. Mead, W. A. ​​Thomas, budując swoje hipotezy teoretyczne, sięga po badanie dokumentów osobistych, listów, pamiętników w celu uzyskania rzetelnych informacji o motywach zachowań społecznych osób, którymi są zainteresowani. Analizując relacje rodzinne, dziedziczność i ciągłość pokoleń, działania człowieka w krytycznych sytuacjach życiowych, relacje z innymi, nie tylko świadome, ale i nieświadome, ujawniają się inklinacje, które wpłynęły na cechy zarówno praworządnych, jak i nielegalnych zachowań jednostek.

Dane empiryczne o charakterze biograficznym wraz z ogólną logiką konstrukcji indukcyjno-dedukcyjnych umożliwiają rekonstrukcję najbardziej złożonych konfliktów motywacyjnych w życiu wewnętrznym jednostek znajdujących się w nadzwyczajnych warunkach sytuacji samobójstwa, popełnienia przestępstwa, pozbawienia wolności itd. .

Wniosek: powyższe metody mogą być stosowane w różnych proporcjach, w odniesieniu do odmiennego materiału społeczno-prawnego iw każdym indywidualnym przypadku tworzą szczególny model działalności badawczej. Wyznaczmy najważniejsze z tych modeli:

1. Badanie pilotażowe.

Jej istota polega na tym, że ma ona charakter eksploracyjny i pozwala badaczom przetestować swoje narzędzia na niewielkim obszarze interesującego ich pola problemowego. Jest to rodzaj mikromodelu przyszłego pełnoskalowego badania. Jego zadaniem jest rozpoznanie słabych stron opracowanego programu, dokonanie z wyprzedzeniem niezbędnych korekt, doprecyzowanie wstępnych założeń hipotezy, dokładniejsze nakreślenie granic badanego tematu oraz klarowna identyfikacja problemu i wynikających z niego zadań. to.

2. Badania opisowe.

Tego typu badania obejmują wyczerpujący, możliwie pełny opis zjawiska prawnego. Ujawniają się jego cechy, właściwości strukturalne i treściowe, funkcjonalność. Jednocześnie badacze nie spieszą się z końcowymi ocenami, uogólnieniami i wnioskami. Ich zadaniem jest stworzenie niezbędnych empirycznych przesłanek dla tego wszystkiego.

3. Studium analityczne.

To najbardziej złożona i pogłębiona wersja badań naukowych, nie tylko ślizgania się po fenomenalnej powierzchni rzeczywistości społeczno-prawnej. Zadanie polega tu na przejściu od zjawisk w głąb problemu, do istotnych parametrów rejestrowanych zjawisk i faktów społeczno-prawnych, do przyczyn i podstaw ich występowania oraz do warunków funkcjonowania.

Wyniki badań analitycznych mają największą wartość naukową i znaczenie praktyczne. Na ich podstawie klienci, dla których ta praca była wykonywana, podejmują pewne praktyczne kroki w celu korekty, reorganizacji i udoskonalenia określonych obszarów rzeczywistości społeczno-prawnej.

Rozważmy empiryczne badania społeczne we Francji w drugiej połowie XX wieku – na początku XX wieku.

Mówiąc o pradziejach socjologii empirycznej w XIX wieku, należy zwrócić uwagę na szczególną rolę francuskiego naukowca i polityka Frederica Le Playa (1806-1882). Socjologia empiryczna to kierunek skoncentrowany na badaniu konkretnych faktów życia społecznego za pomocą specjalnych metod. Szczególną wagę przywiązywał do zbierania określonych faktów społecznych, na podstawie których tylko uważał, że można wyciągnąć rozsądne wnioski. Praca domowa F. Le Play - "Europejscy Robotnicy" - został opublikowany w 1855 roku. Zawiera wyniki badań rodzin pracujących, ich budżetów, które dla francuskiego badacza były głównym wskaźnikiem poziomu i stylu życia. Le Play badał różne źródła dochodów pracowników za pomocą metod statystycznych i na podstawie wyników zaproponował swój program społecznej reformy ich pozycji. Jego podejście nie straciło jeszcze na znaczeniu w przygotowaniu i przeprowadzeniu empirycznego badania społecznego różnych grupy zawodowe populacje.

Głównym obszarem zainteresowań naukowych Le Play jest badanie rodziny. Był jednym z pierwszych, którzy zbadali go metodami empirycznymi. Najważniejszym z nich były statystyki. Le Play sięgnął jednak do innych, w tym bezpośredniej obserwacji poszczególnych szczególnych przypadków i ich późniejszego opisu. Francuski badacz uważał rodzinę za główną jednostkę systemu społecznego społeczeństwa, w którym się w pełni reprodukuje.

Le Play opracował metodologię i metody badań teoretycznych i empirycznych rodziny. W ramach pierwszego - teoretycznego - kierunku sformułował typologię rodziny, obejmującą jej trzy główne odmiany: patriarchalną, niestabilną, pośrednią. Pierwszy typ to tradycyjna rodzina trzypokoleniowa ze wspólnym majątkiem i przewagą ojca (patriarchy), charakterystyczną dla wsi i chłopstwa. Typ niestabilny to dwupokoleniowa izolowana rodzina jądrowa, najbardziej powszechna w wyższych warstwach społeczeństwa i wśród przemysłowej klasy robotniczej. Typ pośredni to rodzaj rodziny patriarchalnej, w której jeden ze spadkobierców jest właścicielem gospodarstwa domowego, a reszta otrzymuje swoją część pieniędzy, co umożliwia im pracę w innym miejscu. Jednocześnie więzi z domem rodzinnym nie zrywają się, pozostaje on nadal „twierdzą”, w której zawsze można ukryć się przed trudami i wstrząsami życia.

W teoretycznej analizie rodziny Le Play zwrócił uwagę na nią jako na główny czynnik kontroli społecznej. Uważał, że państwo może realizować swoją politykę wewnętrzną i skutecznie rozwiązywać główne zadania zarządzania, opierając się tylko na rodzinie i tworząc niezbędne warunki jej funkcjonowania i stabilnego rozwoju.

Jeśli chodzi o metodę badania empirycznego rodziny, najpełniej została ona wyrażona w ramach metody monograficznej opracowanej przez Le Playa, której jest jednym z założycieli. W książce European Workers pozostawił opis stylu życia 57 rodzin zatrudnionych w różnych dziedzinach działalności - rolniczej, rzemieślniczej, rzemieślniczej, przemysłowej, mieszkających w wielu regionach kilku krajów europejskich, różniących się poziomem rozwoju gospodarczego. Główną uwagę w tym opisie zwrócono na budżet rodzinny, strukturę dochodów i wydatków, tj. które można jasno określić ilościowo.

Monograficzna metoda badań przeciwstawiała się wypracowanej wówczas metodzie historycznej. Istotą pierwszej było połączenie analizy teoretycznej rodziny z konkretnymi danymi i materiałami dotyczącymi jej życia, tj. z tym, co teraz nazwalibyśmy danymi pola. Jednocześnie nacisk położono na uwzględnienie czynników środowiska społecznego rodziny, które miały na nią głęboki wpływ. Oto miejsce zamieszkania i postać aktywność zawodowa członkowie rodziny, poziom dochodów itp. Henri de Tourville, uczeń Le Play, zrobił wiele, jeśli chodzi o wykorzystanie metody monograficznej do badań rodzinnych.

Ogólnie rzecz biorąc, Le Play był gorącym zwolennikiem zachowania i wzmocnienia rodziny, w dodatku w jej tradycyjnych normach. - W tym celu zaproponował przyjęcie szeregu ustaw przeciwko fragmentaryzacji majątku rodzinnego i majątku rodzinnego, stymulujących rozwój produkcji rodzinnej. Naukowiec przywiązywał szczególną wagę do zachowania majątku rodzinnego, który działa nie tylko jako środek produkcji, ale także jako silny czynnik moralny i narzędzie rozwoju ciągłości rodziny. Wierzył bowiem, że rodzina jest jedyną strukturalną jednostką społeczeństwa, która jest w stanie ochronić pracownika przed wahaniami rynku, a osobę przed burzami i trudnościami społecznymi, o ile reformy społeczne, o które apelował, powinny, jego zdaniem, przede wszystkim rodziny.

Biorąc pod uwagę rozwój empirycznych badań społecznych we Francji w XIX - początku XX wieku, nie można pominąć badań naukowych w tym zakresie G. Tarde. Wiążą się one przede wszystkim z badaniem społecznych aspektów przestępczości, wyjaśnieniem jej przyczyn jako zjawiska społecznego oraz analizą efektywności francuskiego systemu penitencjarnego. Temat takiej uwagi i zainteresowania Tarde'a nie powinien dziwić, trzeba liczyć się z tym, że przez 25 lat pracował w sądownictwie, głównie w sądach, i wnikliwie studiował problemy kryminologii. Efektem jego badań teoretycznych i empirycznych był „portret” – zarówno fizyczny, jak i społeczny – przestępcy. Zawierał szereg cech i cech (zarówno fizycznych, jak i społecznych) typu osobowości przestępczej (kryminalnej), co było wynikiem analizy dużej liczby spraw karnych.

Opierając się na uogólnieniu istotnego materiału statystycznego na temat popełnionych przestępstw, Tarde rozważał także kwestię rozpowszechnienia i charakterystyki społecznej niektórych rodzajów przestępstw nie tylko we Francji, ale także na całym świecie. W szczególności stwierdził, że liczba krwawych przestępstw popełnianych w krajach o ciepłym klimacie rośnie, a przy zimnym maleje.

Prace Tarde i Le Play miały znaczenie dla późniejszego rozwoju nie tylko socjologii empirycznej, ale także kryminologii, której przedstawiciele do dziś wysoko cenią idee i pracę francuskich naukowców.

Specyficzne problemy stosowania CAPM pojawiają się na rozwijających się rynkach kapitałowych, dla których dość trudno jest uzasadnić parametry modelu (zwrot bez ryzyka, premia za ryzyko rynkowe, współczynnik beta) według lokalnego rynku kapitałowego ze względu na brak efektywności informacyjnej i niską płynność aktywów będących przedmiotem obrotu.

Szereg badań empirycznych dowodzi nieprawidłowości w stosowaniu CAPM szczególnie na rynkach wschodzących w porównaniu z rozwiniętymi (np. , , ). Odnotowaną cechą rynków wschodzących jest znaczenie określonych ryzyk związanych z polityką państwa w zakresie regulacji gospodarki, z instytucjonalną ochroną inwestorów oraz z ładem korporacyjnym. Ze względu na korelację pomiędzy rynkami wschodzącymi a światowym rynkiem kapitałowym, ryzyka te nie są eliminowane poprzez dywersyfikację kapitału globalnego inwestora.

Kolejnym problemem rynków wschodzących jest brak stacjonarności i dynamicznych zmian związanych z liberalizacją lokalnych rynków kapitałowych.

Beckert i Harvey twierdzą, że oceniając wymagany zwrot, rynki rozwinięte i wschodzące należy rozpatrywać z różnych pozycji, ponieważ należy brać pod uwagę stopień integracji rynku lokalnego z globalnym rynkiem finansowym. Stopień integracji nie jest wartością stałą, zmienia się w czasie. Wpływa to na kształtowanie się stóp zwrotu.

W artykule z 1995 roku Beckert twierdzi, że istnienie barier w przepływie kapitału i inwestycji międzynarodowych automatycznie oznacza, że ​​czynniki ryzyka na rynkach wschodzących różnią się od tych w krajach rozwiniętych.

Artykuł dowodzi, że stopień integracji z globalnym rynkiem kapitałowym (lub występowanie barier w przepływie kapitału) powinien decydować o wyborze modelu uzasadnienia kosztu kapitału własnego.

Alternatywny punkt widzenia znajduje potwierdzenie w pracach Rowenhorsta. Autor doszedł do wniosku, że pod względem czynników wpływu nie ma różnicy między rynkami rozwiniętymi i wschodzącymi. Czynniki wyjaśniające zwrot z kapitału, który okazał się istotny na rynkach rozwiniętych, są również istotne na rynkach wschodzących. Czynniki te obejmują:

wielkość firmy;

· zmienne odzwierciedlające stopień ryzyka operacyjnego i finansowego;

płynność akcji;

perspektywy rozwoju.

Aktywne badania nad testowaniem modyfikacji CAPM z uwzględnieniem niedorozwoju rynków kapitałowych prowadzono w krajach Ameryki Południowej (Argentyna, Brazylia, Wenezuela). Zaleca się, aby wybór modyfikacji był powiązany ze stopniem rozwoju lokalnego rynku finansowego i jego integracją z globalnym rynkiem kapitałowym.

Schemat 1. Modyfikacje CAPM w zależności od stopnia integracji i segmentacji rynku.

Model Godfreya-Espinosa skupia się na wyliczeniu współczynnika beta i premii za ryzyko rynkowe według rynku lokalnego z wprowadzeniem premii za ryzyko kraju (CRP) w korekcie globalnej stopy zwrotu wolnej od ryzyka, a także wprowadza korekta do premii za ryzyko inwestycyjne w celu uniknięcia podwójnego liczenia mnożnika ryzyka (1-R2), gdzie R2 jest współczynnikiem determinacji równania regresji wiążącego rentowność spółki na rynku lokalnym ze zmiennością premii za ryzyko kraju.

Praca Gonzaleza testuje model CAPM na próbie spółek, których akcje notowane są na Giełdzie Papierów Wartościowych w Caracas (Wenezuela). Wykorzystując metodę regresji na danych za okres 6 lat (1992-1998) autor dochodzi do wniosku, że model CAPM nie sprawdza się na rynku wenezuelskim.

Ten wniosek wynikał głównie z odrzucenia hipotezy, że istnieje pozytywny związek między ryzykiem a zwrotem zapasów. Jednak wyniki badania Gonzaleza F. wykazały, że po pierwsze zależność między ryzykiem (jako wskaźnik użyto współczynnika beta) a zwrotem jest liniowa, a po drugie ryzyko systematyczne nie jest jedynym czynnikiem wpływającym na oczekiwany zwrot na własny kapitał.

Podobne wyniki uzyskano w trakcie badań M. Omrana na egipskim rynku kapitałowym. Próba obejmowała 41 spółek o najbardziej płynnych akcjach. Panel danych został utworzony za okres grudzień 2001-grudzień 2002. w oparciu o logarytmiczne stopy zwrotu z cotygodniowych obserwacji.

Testy empiryczne przeprowadzone przez Omrana M. sugerują, że ryzyko rynkowe jest istotnym czynnikiem wyjaśniającym oczekiwany zwrot z egipskich akcji. Ujawniony paradoks badania polega na tym, że zwrot z portfela składającego się z akcji spółek o niskich współczynnikach beta (głównie są to firmy produkujące dobra konsumpcyjne i świadczące usługi finansowe) jest wyższy niż zwrot z portfela akcji spółek w budownictwie, tekstyliach i hotelarstwie o wyższych wartościach beta. Zdaniem autora przyczyną tej rozbieżności jest państwowa nacjonalizacja lat 50.-60., która w większym stopniu wpłynęła na zagrożenia sektora przemysłowego i budowlanego gospodarki niż na firmy produkujące dobra konsumpcyjne, a także instytucje finansowe .

Interesujące są badania rynków wschodzących poświęcone doborowi miary ryzyka inwestycyjnego. Z reguły w takich pracach badania prowadzone są w ramach kilku modeli: CAPM i jego alternatyw. Na przykład Hwang i Pedersen testują trzy modele: klasyczny CAPM oraz dwa modele wykorzystujące asymetryczne miary ryzyka – LPM-CAPM (Lower Partial Moment CAPM) i ARM (Asymetryczny model odpowiedzi).

Osobliwością modeli alternatywnych jest to, że według autorów nadają się one do przypadków nieprawidłowego rozkładu stóp zwrotu i niepłynnego lokalnego rynku kapitałowego. Badanie zostało przeprowadzone na próbie 690 firm na rynkach wschodzących w okresie 10 lat (kwiecień 1992-marzec 2002). Na podstawie wyników pracy Hwang S. i Pedersen C. doszli do wniosku, że pod względem mocy wyjaśniającej CAPM nie ustępuje modelom alternatywnym. W próbie krzyżowej moc wyjaśniająca CAPM osiągnęła 80% w przypadku danych dotyczących zwrotów tygodniowych i miesięcznych oraz 55% w przypadku danych zwrotów dziennych. Nie zidentyfikowano znaczących korzyści wynikających z asymetrycznych miar ryzyka. Ponadto, przeprowadzając analizę, autorzy podzielili próbę 26 krajów rozwijających się na regiony, a następnie podzielili cały okres obserwacji na dwa okresy – przed i po kryzysie azjatyckim w 1997 roku.

Z tego powodu Hwang S. i Pedersen C. zidentyfikowali znaczący wpływ lokalnych ryzyk na wschodzących rynkach kapitałowych, co jest zgodne z wynikami cytowanych powyżej prac.

Badanie Dairyl Collins testuje różne miary ryzyka dla 42 krajów rynków wschodzących: systematyczne (beta), całkowite (odchylenie standardowe), idiosynkratyczne, jednostronne (jednostronne odchylenie, jednostronne beta i VaR8) oraz wielkość rynku (określona według średniej kapitalizacji kraju). ), wskaźniki skośności i kurtozy.

Testy przeprowadzono z zastosowaniem podejścia ekonometrycznego (jak w większości podobnych prac) z pozycji inwestora międzynarodowego w okresie 5 lat (styczeń 1996-czerwiec 2001) na podstawie tygodniowych zwrotów. W zależności od wielkości rynku kapitałowego, płynności i stopnia rozwoju wyjściową próbę 42 krajów podzielono na trzy grupy: pierwszy poziom – kraje o dużym rynku kapitałowym (np. Brazylia, RPA, Chiny), jak również także o niewielkich rozmiarach rynku, ale rozwinięty ekonomicznie i informacyjnie; drugi poziom - mniejsze rynki wschodzące (Rosja), trzeci poziom - małe rynki (takie jak Łotwa, Estonia, Kenia, Litwa, Słowacja itp.).

Zgodnie z wynikami badania, wartości beta dla niektórych rynków okazały się niższe od oczekiwanych, co daje fałszywy sygnał o niskim ryzyku dla inwestorów. Wniosek z pracy jest taki, że współczynnik beta (a co za tym idzie model CAPM) jest błędnie stosowany do całej populacji krajów rozwijających się. D. Collins przekonuje, że nie ma jednego wskaźnika ryzyka, który byłby odpowiedni dla każdego kraju z grupy krajów rozwijających się.

Dla krajów pierwszego poziomu najodpowiedniejszym wskaźnikiem ryzyka jest współczynnik uwzględniający wielkość rynku, dla drugiego poziomu jednostronne wskaźniki ryzyka (w porównaniu z innymi wskaźnik VaR wykazał się najlepszymi wynikami) , trzeci poziom - albo odchylenie standardowe, albo ryzyko idiosynkratyczne. Ryzyko idiosynkratyczne (ryzyko idiosynkratyczne) – ta część dowolnego rynku finansowego, która nie zależy od ogólnego poziomu ryzyka finansowego występującego w gospodarce. Nazywane również ryzykiem niesystematycznym w przeciwieństwie do ryzyka systematycznego.

Podobny wniosek dotyczący dopuszczalności różnych miar systematycznego jednostronnego ryzyka dla krajów o doskonałej charakterystyce giełdowej znajduje się w . W latach 1995-2004 przeanalizowano możliwość zastosowania szeregu jednostronnych miar ryzyka (BL, HB, E-beta) dla 27 rynków wschodzących (próbka obejmowała rynki Azji i Ameryki Łacińskiej, rynki Afryki i Europy Wschodniej, w tym Rosję). Indeks rynków wschodzących MSCI jest używany jako portfel globalny, a 10-letnie obligacje rządu USA (Tbond) są stosowane jako stopa wolna od ryzyka. Wykazano, że dla rynków o dużej asymetrii w rozkładzie zwrotów (duża skośność) najbardziej akceptowalną miarą ryzyka systematycznego jest HB-beta. W przypadku rynków, na których zaobserwowano znaczne nadwyżki zwrotów, BL-beta ma pierwszeństwo przed innymi miarami ryzyka.

W przypadku krajów o podobnej charakterystyce geograficznej i makroekonomicznej w Europie Środkowej i Wschodniej przeprowadzono empiryczne badanie korzyści płynących z DСАРМ. Przeanalizowano czynniki kształtujące rentowność firm z 8 krajów byłego bloku socjalistycznego: Czech, Słowacji, Węgier, Polski, Słowenii, Estonii, Łotwy i Litwy w okresie 1998-2003. znaczenie jednostronnych miar ryzyka wraz z zachowaniem wpływu czynników specyficznego ryzyka.

Wpływ segmentacji rynku na poziom wymaganego zwrotu dla inwestorów badał Campbell Harvey. Autorzy artykułu argumentują, że koszt kapitału na rynkach podzielonych na segmenty będzie wyższy niż na rynkach zintegrowanych, ponieważ inwestorzy będą domagać się większej rekompensaty za ponoszenie lokalnego, idiosynkratycznego ryzyka. Sugeruje to, że każdy wzrost stopnia integracji finansowej powinien prowadzić do obniżenia kosztu kapitału własnego.

René Stulz zaproponował parametry diagnostyczne, które umożliwiają uwzględnienie premii za ryzyko kraju (CRP) w modelu ryzyko-zwrot inwestora globalnego.

Należy wziąć pod uwagę stopień integracji (obecność barier w przepływie kapitału) oraz kowariancję zwrotów na rynku lokalnym i globalnym. W pracy podano charakterystykę formalnych i nieformalnych barier w przepływie kapitału obserwowanych na segmentowanych rynkach.

Wiele badań skupiało się na wpływie liberalizacji rynku kapitałowego na koszt kapitału własnego. Przykładowo na podstawie modelu stopy dywidendy (model Gordona) autorzy wykazują, że liberalizacja segmentowanych rynków kapitałowych prowadzi do obniżenia kosztu kapitału własnego średnio o 50%. Podobne badanie oparte na analizie zmian stóp dywidendy i tempa wzrostu dla 20 rynków wschodzących (w tym krajów Ameryki Południowej, Azji i Afryki) przedstawiono w . Jako zewnętrzny znak liberalizacji autor wybrał tymczasowy termin, w którym inwestorzy zagraniczni uzyskują możliwość zakupu akcji spółek na lokalnym rynku. Artykuł pokazuje zmniejszenie kosztów kapitałowych w wyniku liberalizacji średnio o prawie 50%.

Metoda analizy zdarzeń (event study) wraz z oceną skumulowanych nadwyżek stóp zwrotu z dynamiki cen kwitów depozytowych (ADR) 126 firm z 32 rynków lokalnych pozwoliła na wykazanie dla okresu 1985-1994. 42% redukcja kosztów kapitału własnego w eksploatacji.

Praca Dayrila Collinsa i Marka Abrahamsona analizuje koszt kapitału własnego za pomocą modelu CAPM na 8 rynkach kapitałowych kontynentu afrykańskiego (Egipt, Kenia, Maroko itp.) z perspektywy globalnego inwestora. Badanie przeprowadzono z alokacją 10 głównych sektorów gospodarki. Zidentyfikowano dwa okresy, które charakteryzują różne stopnie otwartości gospodarek (1995-1999 i 1999-2002).

Autorzy wskazują na spadek w czasie premii za ryzyko na afrykańskich rynkach kapitałowych. Największe zmiany zaszły w Zimbabwe i Namibii, najmniejsze w Egipcie, Maroku i Kenii. Średni koszt kapitału własnego w 2002 r. wynosi około 12% w dolarach amerykańskich. Sektory o największej wadze w gospodarce charakteryzują się najniższym kosztem kapitału.

Trzy dekady temu badania empiryczne nad teorią rynków przemysłowych były podobne do prac w innych stosowanych obszarach ekonomii. Mniej więcej w tym samym czasie, gdy ekonomiści rynku przemysłowego używali analizy regresji wielu branż i próbowali rozwiązać problemy endogeniczności, brakujących zmiennych i odwrotnej przyczynowości, inni, szczególnie w dziedzinie ekonomii pracy, budowali równania regresji wynagrodzenie i borykali się z podobnymi problemami. Od tego czasu badania empiryczne nad teorią rynków branżowych posunęły się znacząco, i to w pewnym kierunku - w kierunku analizy poszczególnych branż, co pozwala naukowcom na uzyskanie jaśniejszych pomiarów i identyfikacji, a także w kierunku badań, w których analiza empiryczna przedstawiana jest w język jednej z teorii, opisujący daną branżę lub szereg teorii konkurencyjnych.
Obecnie rozwój mikroekonomii stosowanej jest opisywany jako ruch w kierunku wykorzystania randomizowanych eksperymentów (quasi-eksperymentów) w celu ustalenia związków przyczynowych. Krytykowano jednak badania empiryczne dotyczące rynków przemysłowych. Jedną z kwestii jest to, co liczy się jako dopuszczalna zmienność identyfikacji danych. Ideał nie jest tu kontrowersyjny: każdy badacz chciałby najpierw określić interesujący go obiekt, a następnie zaprojektować idealny eksperyment, aby poddać ten obiekt pomiarowi. Jednak w przypadku braku takiej możliwości, badacze muszą iść na kompromis, który zwykle polega na wyborze między dokładnością pomiaru a tym, jak skutecznie mierzony obiekt zastępuje obiekt, który początkowo zainteresował badacza.
Wyobraź sobie, co trzeba zmierzyć popyt na płatki kukurydziane. Idealnie byłoby, gdyby ktoś chciał znać dokładną (n x n) macierz krzyżowej cenowej elastyczności popytu. Typowym podejściem w badaniach rynku przemysłowego jest uwzględnienie możliwych zmian popytu i oparcie się na założeniu, że rezydualna korelacja cen w miastach wynika ze zmian kosztów. Alternatywnym podejściem jest przyjrzenie się konkretnym przypadkom, w których ceny zmieniły się ze zrozumiałych, ale prawdopodobnych przyczyn zewnętrznych, na przykład gdy Froot Loops, producent płatków kukurydzianych, zawiódł algorytm cenowy, powodując, że produkt firmy sprzedawał się po obniżonych cenach przez tydzień. Przypadki te służą do oszacowania elastyczności cenowej popytu na płatki kukurydziane Froot Loops. Badacz może wtedy dokonać ekstrapolacji na podstawie danych, zakładając, że zmiana ceny podobnego rodzaju zboża lub ewentualnie innego rodzaju zboża dałaby podobne wyniki. W tym kontekście żadne z przedstawionych podejść nie jest idealne. Pierwsze podejście opiera się na wątpliwym założeniu identyfikacji, ale planuje eksperyment, aby bezpośrednio zbadać obiekt zainteresowania. Drugie podejście polega na dokładniejszym pomiarze kilku elementów macierzy, ale do oceny obiektu bezpośrednio interesującego badacza wymagana jest wątpliwa ekstrapolacja.
Jednym z problemów, jakie pojawiają się, gdy ekonomiści próbują abstrakcyjnie ocenić daną linię badawczą, jest to, że rezultatem jest bardzo uproszczony obraz. Decyzja o tym kompromisie prawie zawsze zależy od tego, na jakie pytanie badacz chce odpowiedzieć; z danych dostępnych w odpowiedzi na to pytanie; o stopniu, w jakim teoria ekonomii pozwala na przyjęcie założeń dotyczących relacji między parametrami danych. Naszym zdaniem w teorii rynków branżowych możliwe są różne podejścia nawet przy odpowiedzi na to samo pytanie. Rzeczywiście, ponieważ badania mogą jedynie zbliżyć naukowców do wymaganej odpowiedzi, podejścia z różnych punktów widzenia często się uzupełniają.
Drugie pytanie dotyczące ewolucji teorii rynków przemysłowych dotyczy roli ekonomii w badaniach empirycznych. Można śmiało powiedzieć, że zawodowi ekonomiści (przynajmniej większość) uważają teorię ekonomii za pryzmat, przez który wygodnie jest patrzeć na świat. Zaskakuje zatem opinia, że ​​teoria ekonomii nie odgrywa znaczącej roli w zrozumieniu i analizie danych uzyskanych w wyniku badań empirycznych. Zamiast tego proponuje się stosowanie strategii pomiarowych bez ograniczeń wynikających z zastosowania modeli teoretycznych. Jednym z wyjaśnień może być przejrzystość; autorzy wydają się utożsamiać wykorzystanie teorii ekonomii ze złożonym modelowaniem, które dezorientuje dane. Ta identyfikacja wydaje się jednak fałszywa w tym sensie, że można mieć doskonale jasną analizę modelu opartego na teorii ekonomii i równie skomplikowaną analizę regresji liniowej.
Bardziej naturalne wydaje się rozpoczęcie od postawienia pytania, na które należy odpowiedzieć, a następnie pytanie, w jakim stopniu teoria ekonomii może rzucić światło na problem. Standardowa teoria ekonomii nie wyjaśnia zachowania uczniów klas trzecich. Dlatego, chociaż można zacząć od stworzenia modelu równowagi uczenia się uczniów i użyć go do skonstruowania testów empirycznych, istnieją mocne argumenty przemawiające za podejściem statystycznym, ponieważ istnieją tysiące klas trzecich z mniej więcej tym samym programem i wieloma możliwościami znalezienie interesujących różnic w liczbie uczniów w klasie do oceny, wpływ tego parametru na efekty uczenia się.
Jednak ten paradygmat nie zawsze nadaje się do badania rynków branżowych. Teoria organizacji przemysłowych dotyczy przede wszystkim funkcjonowania firm i rynków — dziedziny, w której teoria ekonomii dysponuje bogactwem danych — i, gdy jest właściwie używana, ma tendencję do wyjaśniania, a nie zaciemniania rozumienia rynków przez badaczy. Co więcej, w wielu badaniach głównym zainteresowaniem jest nie tylko przyczynowość sama w sobie, ale zrozumienie działających mechanizmów. Jak wielokrotnie podkreślano, rynki bardzo się od siebie różnią, a wykorzystanie jakichkolwiek danych (w zakresie elastyczności popytu, kosztów produkcji czy efektów polityki) dla różnych rynków często nie wydaje się uzasadnione. Jeśli naukowiec stara się uogólnić swoje dane, bardziej przekonujące wydaje się wykorzystanie badań empirycznych do uzasadnienia zasad strategiczna interakcja lub funkcjonowanie rynków, które mają szerokie zastosowanie w różne branże.
Konkretny przykład, na podstawie którego krytykuje się badania empiryczne dotyczące teorii rynków przemysłowych – analiza fuzji – ilustruje to, co zostało powiedziane. Jak opisano powyżej, przy ocenie proponowanej fuzji lub przejęcia zwykle stosuje się teoretyczne modele konkurencji branżowej. Naukowcy spędzili dużo czasu na opracowaniu narzędzi ekonometrycznych do ilościowego określenia możliwych wyników w kontekście takich modeli. Ta praca jest krytykowana jako zdalnie związana z postawionym pytaniem. Zamiast tego, krytycy pytają, dlaczego nie spędzić więcej czasu na przyglądaniu się przeszłym fuzjom? Z jednej strony jest to zasadny zarzut: analiza retrospektywna może być przydatna. Z drugiej strony jest to całkowicie błędne. Czy poważnie myślą, że gdyby Departament Sprawiedliwości USA rozważył proponowaną fuzję Microsoftu i Yahoo!, jego personel musiałby zbadać wpływ poprzednich fuzji lotniczych lub produkcyjnych na ceny? materiały piśmienne, a nawet fuzje, które nastąpiły w wyniku przypadkowych spotkań szefów firm lub w wyniku zaćmień księżyca? O wiele bardziej produktywne jest określenie jasnych ram koncepcyjnych do analizy możliwego wpływu danej fuzji, rozsądnie wykorzystując najistotniejsze dostępne dane.
Główny wniosek jest jednak taki, że teoria ekonomii i poszukiwanie przekonujących źródeł identyfikacji zmian w danych nie są ze sobą sprzeczne metody ekonometryczne. Oczywiście skuteczniejsze metody są bardziej wartościowe - pod warunkiem, że zostaną wykorzystane zgodnie z ich przeznaczeniem i nie staną się celem samym w sobie. Wracając do literatury na temat szacowania popytu, być może jednym z powodów, dla których badacze są skłonni tolerować mniej niż idealne wahania cen, jest to, że w niektórych przypadkach rezultatem pracy nie jest oszacowanie elastyczności cenowej per se, ale metoda ekonometryczna, którą można stosowane szerzej. Chociaż takie wyniki nie są szczególnie kontrowersyjne, ważne jest, aby teoria rynków przemysłowych znalazła rozsądną równowagę między rozwojem narzędzi a ich perswazyjnym użyciem. Można się spierać, czy teoria rynków przemysłowych nie odeszła zbyt daleko, ale sam fakt poważnych sporów w tej sprawie budzi wątpliwości.
Z historycznego punktu widzenia obecną sytuację można wyjaśnić ograniczonymi danymi. Rzeczywiście, najbardziej znaczące metodyczne przełomy w teorii rynku przemysłowego były odpowiedzią na ten problem. W innowacyjnym modelu wejścia na rynek rozwiązanie zostało znalezione ze względu na brak danych o cenach i ilościach towarów. Nowa metoda szacowania popytu zyskała tak dużą wiarygodność po części dlatego, że wymaga jedynie danych na poziomie rynku, a nie danych na poziomie jednostki.
Dziś prawie każdy duża firma gromadzi ogromną ilość danych o swoich klientach, pracownikach i innych aspektach funkcjonowania. Coraz łatwiej gromadzić dane dotyczące cen i ilości towarów, wejścia i wyjścia z rynku, lokalizacji firm oraz informacji księgowych. Zwiększenie zbioru danych może zastąpić niektóre metody i doprowadzić ekonomistów studiujących teorię rynku przemysłowego do skupienia się bardziej na stosowaniu istniejących metod niż na opracowywaniu nowych.
Innym problemem jest to, że skupienie się na elegancji rozwiązania może prowadzić do mniej ważnych problemów. Załóżmy na przykład, że wybieramy pytania do zbadania na platformie internetowej eBay. Jeśli przedmiotem badań jest potencjalne laboratorium do zastosowania eleganckich metod empirycznych teorii aukcji, wówczas naturalnym krokiem byłoby skupienie się na węższych segmentach rynku w celu wyodrębnienia specyficznych cech formatu aukcji. Chociaż takie podejście może być owocne, może odwrócić uwagę badaczy od szerszych pytań, takich jak dlaczego eBay jako organizacja odnosi taki sukces lub jak eBay konkuruje z innymi platformami, które łączą kupujących ze sprzedawcami, takimi jak Amazon. W rzeczywistości ekonomiści ze wszystkich środowisk powinni oprzeć się pokusie zajmowania się tylko jednym rodzajem problemu.
Ostatni i ważny problem dla przyszłej teorii rynków przemysłowych wiąże się z przejściem od analizy grupy branż do badania poszczególnych branż. Przez 20 lat badań zgromadziliśmy ogromny zasób wiedzy na temat funkcjonowania poszczególnych branż, jednak wiedza ta jest niezwykle rozdrobniona. Ekonomiści szczegółowo zbadali funkcjonowanie takich branż jak motoryzacja, lotnictwo komercyjne, elektryka, produkcja cementu i betonu (to różne branże!). Jednak zdobytej wiedzy nie da się łatwo przenieść z jednej branży do drugiej. W rezultacie badanie wielu interesujących i ważnych zagadnień związanych z ogólną organizacją produkcji, teoria rynków przemysłowych ustąpiła miejsca innym dziedzinom, w szczególności teorii handlu i makroekonomii.

 


Czytać:



Jak uzyskać podpis cyfrowy dla usług publicznych?

Jak uzyskać podpis cyfrowy dla usług publicznych?

Witamy na stronie. W artykule porozmawiamy o uzyskaniu podpisu elektronicznego za pośrednictwem portalu usług publicznych. Elektroniczny podpis cyfrowy...

Dlaczego testy prędkości mają różne wyniki

Dlaczego testy prędkości mają różne wyniki

Liczniki prędkości używane przez policję drogową Sokol Mały, w pełni autonomiczny licznik prędkości radarowy, który...

Programy do pomiaru prędkości Internetu na Androidzie

Programy do pomiaru prędkości Internetu na Androidzie

Speedtest.net to zasób online zaprojektowany specjalnie dla urządzeń mobilnych z systemem Android, w którym możesz szybko przetestować prędkość...

Umiejętność komunikacji z klientem

Umiejętność komunikacji z klientem

Najlepszy copywriter to ten, którego teksty same wskakują do TOP Bawię się słowem, jak grosz, oczyszczę duszę, żeby zabłysła... Witam przyjaciele. Proszę o...

obraz kanału RSS