Dom - Historie sukcesów
Centralizacja infrastruktury systemów informatycznych. Yugra rozpoczęła centralizację infrastruktury systemów informatycznych Okręgu Autonomicznego

Barkovskaya T.A.
Grupa MBA CIO-28
Szkoła Zarządzania Informatyką
RANEPA pod Prezydentem Federacji Rosyjskiej

Wstęp.

Wyniki finansowe dużego banku w dużej mierze zależą od sprawności i jakości systemów informatycznych i usług informacyjnych. W przypadku każdej dużej instytucji finansowej jeden z główne zadanie to szybkie i płynne przetwarzanie znaczących przepływów informacji.

W związku z tym szczególne znaczenie mają zadania prawidłowej organizacji pracy działu IT oraz zarządzania informatyką.

Inwestując w oprogramowanie, sprzęt komputerowy i telekomunikacyjny, rozwój systemów informatycznych oraz stworzenie podstaw do przejścia na nowe platformy obliczeniowe, banki przede wszystkim dążą do obniżenia kosztów i przyspieszenia swojej pracy.

Wysokiej jakości i stabilne usługi IT mogą znacząco obniżyć ryzyko operacyjne, zwiększyć rentowność banku, zwiększyć jego wartość rynkową i kapitalizację banku.

Zadania wielooddziałowego banku detalicznego.

Zakres zadań rozwiązywanych przez bank wielooddziałowy, którego głównym kierunkiem strategicznym jest rozwój biznesu detalicznego, jest dość szeroki. Przede wszystkim są to:

  • skalowanie jednolitych technologii w całej strukturze terytorialnej banku,
  • zmniejszenie kosztów na operację, zapewnienie bezpieczeństwa i kontroli wykonywanych operacji.
  • możliwość szybkiego wprowadzania nowych produktów na rynek, tworzenia i rozwijania najefektywniejszej linii produktowej
  • maksymalne skrócenie czasu i zmniejszenie wielkości inwestycji związanych z otwieraniem punktów obecności banku,
  • obniżenie kosztów utrzymania struktury rozproszonej geograficznie
  • wsparcie jak najszerszej gamy kanałów sprzedaży usług i obsługi klienta, w tym zarówno tradycyjnej sprzedaży „osobistej”, jak i innowacyjnych kanałów promocji i sprzedaży produktów bankowych.

Scentralizowane zarządzanie zasobami

Ideologia centralizacji zasobów to ogólny trend w organizacji wsparcia informacyjnego i technologicznego dla biznesu bankowego.

Scentralizowane podejście do zarządzania pozwala ograniczyć ryzyko związane z oszukańczymi transakcjami, zwiększyć efektywność zarządzania przepływami finansowymi, trafnie i szybko ocenić osiągnięty wynik finansowy, zapewnić klientom nowoczesne usługi bankowe niezmienne co do ich lokalizacji oraz obniżyć koszty wsparcia technicznego, w tym utrzymania personelu technicznego.

koncepcja ITSM

Główną ideą ITSM (Information Technology Service Management) jest konieczność przejścia od tradycyjnego modelu, w którym głównym celem usługi IT jest wsparcie samej infrastruktury IT, do schematu skoncentrowanego na obsłudze podstawowej działalności firmy.

Ten schemat opiera się na 2 warunkach wstępnych:

  • wyniki pracy działu IT dostarczane są w postaci zestawu usług
  • główną formą organizacji pracy serwisu IT jest zbiór procesów

Usługa rozumiana jest jako główna forma dostarczania wartości klientom. Usługi spełniają wymagania klienta. Produkty powstałe w wyniku działań projektowych lub zakupione na rynku powiększają pulę zasobów serwisu IT i są wykorzystywane w przyszłości do świadczenia usług.

Historia rozwoju ITSM jest uważana za koncepcję i podstawowe techniki stworzone w celu realizacji tej koncepcji:

  • CobiT (Obiekty kontrolne dla informacji i technologii pokrewnych)
  • USMBOK,
  • MOF, podejście Microsoftu
  • ITUP, podejście IBM
  • FITS, uproszczona wersja ITIL do nauczania na uniwersytetach
  • eTom, generyczny model dla firm telekomunikacyjnych

Techniki zarządzania działaniami IT.

W części teoretycznej pracy za główne techniki uznano techniki zarządzania portfelem oraz techniki ITIL, jako bibliotekę najlepszych praktyk wdrażania podejścia ITSM.

Przedmiot badań.

Jako obiekt badań wybrano duży bank o strukturze rozproszonej geograficznie, reprezentowany w 48 regionach Rosji, dla którego priorytetowym obszarem rozwoju była działalność detaliczna oraz współpraca z małymi i średnimi przedsiębiorstwami.

Oprócz aktywnego rozwoju biznesu detalicznego, jednym z głównych zadań stawianych przez kierownictwo jest redukcja kosztów operacyjnych. W tym zakresie postawiono zadanie powiększenia oddziałów - większość oddziałów zmienia status i staje się biurami operacyjnymi, co pozwala na skoncentrowanie części procesów biznesowych i księgowych w pozostałych oddziałach.

Jednocześnie plany biznesowe dotyczące rozwoju handlu detalicznego nie zakładają redukcji, a wręcz przeciwnie, zwiększenia łącznej liczby punktów usługowych – dodatkowych biur czy mobilnych punktów sprzedaży.

Ze względu na lokalizację punktów obsługi banku w różnych strefach czasowych systemy informacyjne powinny być dostępne niemal przez całą dobę.

Zadania centralizacji serwisu IT

Na podstawie przeprowadzonego badania sformułowano główne zadania stojące przed działem IT:

    • Osiągnięcie takiej organizacji obsługi użytkowników biznesowych, w której działania IT staną się mierzalne i sterowalne. W tym celu w pierwszej kolejności postanowiono sformalizować proces zarządzania incydentami oraz wdrożyć zarządzanie zmianą. Na dalszych etapach planowane jest rozważenie możliwości wprowadzenia zarządzania konfiguracją, aspekt ten nie jest brany pod uwagę w pracy.
    • Centralizacja i wirtualizacja sprzętu serwerowego oraz minimalizacja kosztów kadry regionalnych specjalistów IT. Zaletą rozwiązania jest to, że upraszcza udostępnianie personelu pomocniczego i jego pracę przy wdrażaniu i zarządzaniu systemami oraz zmniejsza stopień duplikacji doświadczonego personelu. Centralizacja ułatwia również korzystanie ze standardowych konfiguracji i procesów zarządzania, tworzenie ekonomicznych systemów kopii zapasowych na potrzeby odzyskiwania po awarii i utrzymywanie łączności biznesowej. Bezpieczeństwo sieci można również poprawić, ponieważ serwery są chronione przez pojedynczą, centralnie zarządzaną zaporę sieciową.
    • Projekt centralizacji systemów informatycznych, polegający na rezygnacji z odrębnych baz danych obsługujących pożyczki dla osób fizycznych w oddziałach, co zwiększy wydajność systemów i obniży koszty operacyjne.
    • Projekt reorganizacji procesów biznesowych w celu wsparcia rozbudowy oddziału. Należy zauważyć, że zmiany w procesach biznesowych są wymagane nie tylko w zakresie IT, ale to zadanie wykracza poza odpowiedzialność informatyków. IT w tym projekcie pełni głównie funkcję usługową i ma na celu budowanie interakcji z biznesem w ramach projektu w taki sposób, aby zminimalizować czas zamknięcia FKB i otwarcia z jego strony nowego zależnego dodatkowego biura .

Zarządzanie incydentami i zarządzanie zmianą.

Rozważane są dwa procesy z podejścia ITIL - zarządzanie incydentami i zarządzanie zmianą. Celem opracowania procesu zarządzania zmianą było przede wszystkim wprowadzenie podejścia release do wyznaczania nowych zadań oraz rozszerzenie tego podejścia na aktualizację wszystkich systemów informatycznych banku. Incydenty na początku projektu były rejestrowane w specjalnym systemie, ale dotyczyło to tylko występowania problemów ze sprzętem, a nie we wszystkich przypadkach oraz problemów w niektórych systemach informatycznych. Konieczne było sformalizowanie istniejącego procesu i rozszerzenie go na wszystkie systemy informatyczne banku.

Podjęto praktyczne kroki - sformalizowano i zrewidowano procesy i procedury pracy pracowników, nowe i doprecyzowano stare role pracowników, wydzielono nową komórkę strukturalną działu IT odpowiedzialną za zarządzanie wydaniami. Dopracowano istniejący zautomatyzowany system Service Desk, opracowano, sformalizowano i skonfigurowano nowe trasy przepływu zgłoszeń. Ogólnie rzecz biorąc, pierwszy etap zakończył się sukcesem.

Należy zauważyć, że w procesie realizacji projektu, poza problemami organizacyjnymi i technicznymi, konieczne jest pokonanie bariery psychologicznej. Ponadto dotyczy to relacji w ramach działów IT, relacji między działami w ramach działu IT, a przede wszystkim między działem IT a pracownikami działów biznesowych, gdyż w banku było zwyczajowo pracować „przez telefon”.

W wyniku projektu centralizacji sprzętu planowana jest redukcja personelu IT w scentralizowanych oddziałach, a drugim etapem projektu jest zorganizowanie dodatkowej jednostki I linii wsparcia w oddziale w Nowosybirsku, która towarzyszyłaby użytkownikom biznesowym w innych strefach czasowych .

Wymaganą liczbę pracowników obliczono na podstawie statystyk zaistniałych incydentów.

Projekt centralizacji i wirtualizacji serwerów.

Istniejący sprzęt w oddziałach jest przestarzały fizycznie i moralnie, nie obsługuje zdalnego zarządzania i nie jest ujednolicony – reprezentuje różne modele serwerów i jednostek systemowych, co komplikuje monitorowanie i rozwiązywanie problemów.

Opracowano 4 rozwiązania:

    • Przenoszenie sprzętu z oddziałów i umieszczanie go w jednym centrum danych. Obecna przestrzeń jest niewystarczająca, aby pomieścić istniejący sprzęt.
    • Przenoszenie sprzętu z oddziałów i umieszczanie go w odległym miejscu. Zakres prac dla tej opcji obejmuje przeniesienie serwerów z oddziałów do zdalnego centrum danych oraz zakup i wdrożenie terminalowego sprzętu dostępowego dla użytkowników oddziałów.
    • Wynajem serwerów wirtualnych i serwerów dostępu do terminali dla użytkowników regionalnych od zewnętrznego dostawcy centrum danych. Opcja ta zakłada całkowite odrzucenie dotychczasowego sprzętu serwerowego w oddziałach i przejście na dzierżawioną moc obliczeniową.
    • Przeniesienie parku serwerów w regionach na serwery wirtualne w oparciu o własną moc obliczeniową i umieszczenie sprzętu w zewnętrznym data center. Opcja ta obejmuje zakup niezbędnego sprzętu do wirtualizacji serwerów regionalnych, wirtualizację serwerów regionalnych dla zakupionego sprzętu, a następnie przeniesienie rozwiązania do zdalnego centrum danych.

Dla każdej opcji dokonywana jest kalkulacja kosztów i porównanie parametrów.

Parametr oceny

opcja 1

Opcja 2

Opcja 3

Opcja 4

Nakłady inwestycyjne

29 502 240,00 rub.

16 743 440,00 rub.

35 394 000,00 rub.

Roczne koszty operacyjne

27 000 000,00 rub.

58 404 000,00 rub.

Konsolidacja sprzętu w jednym miejscu

tolerancja błędów

Skalowalność

Zarządzanie scentralizowane

Ujednolicenie sprzętu

Nowość sprzętowa

W efekcie za optymalną uznano opcję 4, która dodatkowo obniża do minimum koszty operacyjne utrzymania rozwiązania.
Platforma VMware została wybrana jako platforma do wirtualizacji.

Specyfiką banku wielooddziałowego, reprezentowanego we wszystkich regionach Rosji, jest działanie punktów obsługi w różnych strefach czasowych, co wymaga niemal całodobowej dostępności systemów informatycznych. Rozwiązaniem tego problemu może być budowa drugiego centrum danych poza Uralem.

Ponadto wymagane jest dodatkowe szczegółowe badanie zagrożeń związanych z kanałami komunikacji.
Zwraca się również uwagę, że jednym z najważniejszych zadań każdej firmy finansowej jest zapewnienie wysokiego poziomu bezpieczeństwa informacji, ponieważ infrastruktura banku musi spełniać standardy wyznaczane przez międzynarodowe systemy płatnicze oraz ustawodawstwo dotyczące bezpieczeństwa danych osobowych.

W związku ze zmianą struktury sieci oddziałów plan wirtualizacji i wdrożenia terminalowych urządzeń dostępowych powinien być sporządzony z uwzględnieniem dostarczonego przez przedsiębiorcę planu rozbudowy oddziału.

wnioski

Cele centralizacji w banku można osiągnąć jedynie poprzez przeprowadzenie szeregu działań, w tym centralizację sprzętu, centralizację systemów informatycznych, centralizację struktury organizacyjnej oraz reorganizację procesów biznesowych. Ponadto zadania wykraczają daleko poza dział IT i wymagają kompleksowego włączenia biznesu.

Trend budowy systemów scentralizowanych odzwierciedla strategiczny kierunek rozwoju technologii informatycznych w biznesie bankowym i będzie dominował w dającej się przewidzieć przyszłości.

Wirtualizacja umożliwia stworzenie łatwego w zarządzaniu, skalowalnego, scentralizowanego rozwiązania infrastrukturalnego.

Budując centrum danych, należy zwrócić szczególną uwagę na kwestie bezpieczeństwa informacji.

Po opracowaniu i sformalizowaniu procesów zarządzania incydentami i zarządzania zmianą zmniejszyły się przestoje jednostek biznesowych związane z nieprawidłowym funkcjonowaniem struktury informatycznej banku, poprawiła się obsługa użytkowników oraz ustanowiono praktykę regularnego raportowania do menedżerów banku.

Należy jednak zauważyć, że brak zaangażowania klienta biznesowego w projekty wdrożeniowe ITSM w zakresie opisania koordynacji usług IT powoduje, że za wcześnie jest mówić, że dział IT stał się organizacją usługową.

| 27.04.2015

Pod wpływem kryzysu gospodarczego praktycznie wszyscy giganci przemysłu metalurgicznego pracują nad optymalizacją i redukcją kosztów. Nowolipecki Zakład Metalurgiczny nie jest wyjątkiem. Zadaliśmy kilka pytań Vadimowi Uryasowi, wiceprezesowi ds. technologii informatycznych w NLMK.

Jakie są najciekawsze projekty informatyczne zrealizowane w NLMK w ubiegłym roku?

W ubiegłym roku na porządku dziennym była organizacja IT. NLMK-IT, członek Grupy NLMK, rozpoczął działalność już w 2012 roku, a do 2014 roku obejmował usługi informatyczne wszystkich rosyjskich przedsiębiorstw NLMK: od Nowolipieckiego Zakładu Metalurgicznego po Ałtaj-Koks. Wykonaliśmy dużo pracy, aby poprawić wewnętrzną wydajność, zoptymalizować procesy biznesowe i zarządzanie nową firmą, a także scentralizować infrastrukturę. W końcu biznes czerpie korzyści z dobrze skoordynowanej i wydajnej pracy IT. Miniony rok zapisze się również w naszej historii jako rok przyjęcia chmury. Zwirtualizowaliśmy całą infrastrukturę, czyniąc ją bardziej niezawodną i opłacalną. Używana przez nas chmura prywatna oszczędza około 25% serwerów fizycznych. Kolejnym rozwiązanym zadaniem jest migracja systemu ERP na platformę SAP HANA. Praca nad nową bazą danych poszerzy wachlarz możliwości, które teraz jesteśmy w stanie zapewnić Grupie NLMK. Po zakończeniu reorganizacji w rosyjskich przedsiębiorstwach rozpoczęliśmy ją w Europejskich

Jak kryzys gospodarczy wpłynął na projekty informatyczne NLMK?

Nasza firma czuje się całkiem dobrze i pewnie. Nie zmieniliśmy jeszcze planów i projekty się nie zatrzymały. Nadal rozwijamy się zgodnie z wcześniej opracowaną strategią, ale jednocześnie opracowujemy nową na kolejne trzy lata.

Więc nie tniesz swojego budżetu IT?

Jednym z głównych celów strategii Grupy NLMK jest pozycja lidera pod względem wydajności produkcji. IT jest ważnym narzędziem w realizacji tego celu, a ich rozwój nie powinien się kończyć. Dam ci przykład. W celu kontroli stabilności pracy agregatów oraz identyfikacji odchyleń stosujemy karty kontrolne - wykresy opisujące określone parametry technologiczne obróbki produktu na każdym z agregatów. System zbiera dane z kart kontrolnych, a w przypadku wystąpienia odchylenia pokazuje, co dokładnie się wydarzyło – buduje w ten sposób pętlę sprzężenia zwrotnego personelu technicznego i utrzymania ruchu. Pozwala to przyspieszyć diagnostykę, skrócić czas napraw, a tym samym zaoszczędzić zasoby i zwiększyć wydajność jednostek.

Jak wyglądał proces centralizacji zasobów IT?

Centralizacja została przeprowadzona w dwóch etapach. W pierwszym etapie, który miał miejsce w 2013 roku, połączyliśmy usługi informatyczne wszystkich rosyjskich przedsiębiorstw Grupy NLMK: Stoilensky GOK w obwodzie biełgorodzkim, nowolipieckie huty żelaza i stali, VIZ-Steel w Jekaterynburgu, NSMMZ w obwodzie swierdłowskim i inne . Jednak zgromadzenie wszystkich w jednej strukturze nie wystarczy, nadal trzeba zapewnić narzędzia do zarządzania, a także muszą one być scentralizowane. W drugim etapie skupiliśmy się na koncentracji całej infrastruktury w skończonej liczbie miejsc, tak aby nie było konieczne utrzymywanie sztabu administratorów w każdej z fabryk. Administratorom trzeba było dać „oczy”, czyli wyposażyć ich w systemy monitoringu.

W końcu na czym polega centralizacja infrastruktury IT? Oznacza to np. pozostawienie jednego z 20 systemów pocztowych. Jest to wygodne dla użytkowników, ponieważ mogą przyjechać do innego przedsiębiorstwa lub do innego miasta i nie muszą otrzymywać loginu i hasła. Jest to również wygodne dla informatyków, ponieważ proces zarządzania i monitorowania jest uproszczony. Wreszcie wzrasta sama niezawodność systemów – nie zapominajmy, że czynnik ludzki jest zawsze najsłabszym ogniwem. Informatyk mówi, że idealny system to taki, w którym nie ma ani jednego użytkownika, a użytkownik uważa system za idealny, gdy nie ma ani jednego informatyka.

Jakie zmiany w infrastrukturze zostały wprowadzone podczas centralizacji? Jakie systemy lub rozwiązania musiałeś porzucić?

Niczego nie odmówiliśmy. Centralizacja dotyczy usług, a nie systemów. Systemy działały i pozostały. Istnieją dwa scentralizowane systemy: SAP - dla dużych i 1C dla małych. Wśród systemów kolejnego poziomu znajduje się MES. Nie mogę ich scentralizować, ponieważ są powiązane z określonymi agregatami. Ale mogę w pewnym stopniu ujednolicić platformę, choć nie zawsze ma to sens – dlatego systemy MES są lokalne dla każdego przedsiębiorstwa. Możliwe jest jednak centralne zarządzanie serwerami. Usługi to zupełnie inna sprawa, mogą i powinny być scentralizowane. Są to komunikator, poczta e-mail, portal korporacyjny, pakiet dokumentów online itp. W przeszłości każde przedsiębiorstwo wdrażało własne usługi, a my je zebraliśmy i scentralizowaliśmy. Jedna trzecia infrastruktury jest wydawana na systemy informatyczne, a około dwie trzecie na usługi, ponieważ wymagają one większych zasobów. Weź tę samą pocztę: jej pojemność jest mierzona w setkach terabajtów.

Czy wynika to z faktu, że ludzie przechowują wiele niepotrzebnych informacji na swoich kontach pocztowych?

Wszyscy ludzie są różni. Niektórzy mają całkowicie czysty stół, inni mają stos papierów. Jednocześnie nie można powiedzieć, że ten z przytłoczonym stołem działa gorzej lub niepoprawnie. To dla niego po prostu wygodniejsze. Podobnie jest z pocztą. Naszym zadaniem jest, aby działała dla wszystkich użytkowników w każdych warunkach. Jeśli ktoś ma dużo papierów na swoim biurku, kup mu duże biurko. Jeśli ma dużo listów, rozszerz jego skrzynkę i nie mów, że możesz przechowywać nie więcej niż określoną liczbę gigabajtów.

Pytanie o uporządkowanie bałaganu na komputerach stacjonarnych: Czy zastanawiałeś się nad wprowadzeniem współpracy nad dokumentami w chmurze?

Przygotowujemy się do wdrożenia Microsoft Office 365. System ten pomaga rozwiązać problem indywidualnego „bałaganu”. Jednak jeszcze go nie uruchomili ze względów natury wewnętrznej.

Jak ważny jest teraz dla Ciebie temat zastępowania importu w IT?

Kwestia zastąpienia importowanych produktów rosyjskimi odpowiednikami nie jest dla nas pilna, ale jednocześnie ze względu na dewaluację rubla cena wielu produktów oprogramowania i sprzętu wzrosła, których udział w imporcie wynosi około 90%. Dlatego wychodzimy z następujących pozycji: jeśli na rynku istnieje pełnoprawna alternatywa produkcji rosyjskiej, to rozważamy to. Równolegle komunikujemy się z wieloma zagranicznymi producentami w sprawie ceny.

Czy uda Ci się uzgodnić ze wszystkimi dostawcami ustalanie cen?

Nie wszyscy z nich. Z moich obserwacji wynika, że ​​europejscy dostawcy mają rozsądniejszą politykę niż ich amerykańscy koledzy.

Jak dziś wyglądają relacje IT i biznesowe w Twojej firmie?

Jako wiceprezes ds. technologii informatycznych nadzoruję prace projektowe i operacyjne NLMK-IT. Relacje z biznesem budowane są na poziomie działań projektowych. Najpierw omawiane są wspólne plany i potrzeby, później przekształcane są w projekty, które muszą mieć dwóch liderów – z IT i biznesu. Realizujemy projekty w finansach, sprzedaży, dostawach, produkcji, naprawach - w skrócie prawie wszystkie tematy są obecne.

Czy rozwiązania mobilne są wykorzystywane w procesach produkcyjnych w NLMK?

Tak. Na przykład od dawna korzystamy z tzw. napraw mobilnych. Podczas gdy odbywają się w walcowniach na zimno. Ekipy dyżurne centrum utrzymania ruchu wyposażone są w mobilne urządzenia do gromadzenia danych. Specjaliści utrzymania ruchu, omijając jednostki, odnotowują występowanie lub brak odchyleń, a ekipy naprawcze szybko widzą, gdzie ich interwencja jest wymagana. Projekt ten umożliwił skrócenie czasu przestoju sprzętu awaryjnego o 20%. W tym roku planujemy wdrożenie do produkcji mobilnego intranetu, aby zaangażować pracowników w procesy wymiany informacji. Ludzie są gotowi do korzystania z urządzeń mobilnych w produkcji. Obecne pokolenie dorastało w erze komputerów.

Czy pracownik warsztatu z tabletem stał się już rzeczywistością w twoich fabrykach?

Oh, pewnie. Spośród 18 000 użytkowników systemów informatycznych 12 000 to pracownicy. Znajomość komputera jest obowiązkowym elementem, który jest zawarty we wszystkich programach szkoleniowych dla pracowników. Brygadzista warsztatowy nigdzie nie jest bez komputera.

Czy sami informatycy są zaangażowani w procesy produkcyjne?

Posiadamy program edukacyjny „Metalurgia dla niemetalurgii”, który muszą opanować wszyscy pracownicy działu IT. Jest kilku informatyków bezpośrednio zaangażowanych w automatyzację procesów metalurgicznych, ale są to bardziej pracownicy przemysłowi i technolodzy niż informatycy. Ale ci, którzy pracują w biurze, muszą też znać specyfikę produkcji.

I ostatnie pytanie: na jak długo projektowana jest strategia IT w Twojej firmie?

Przez trzy lata. Trudno jest zorientować się przez dłuższy czas, ponieważ technologie rozwijają się bardzo szybko.

06.11.2014, śro, 17:06, czasu moskiewskiego

Niezawodność, bezpieczeństwo, łatwość zarządzania, elastyczność i wydajność to pięć wymiarów, które definiują infrastrukturę IT. Zwykle nie są kwestionowane. Podejścia do tworzenia i zarządzania infrastrukturą IT mogą być bardzo różne. Konferencja „Infrastruktura IT: Optymalny Rozwój”, zorganizowana przez CNews Conferences i CNews Analytics, była poświęcona omówieniu aktualnych problemów typowych dla rynku rozwiązań infrastrukturalnych. Miało to miejsce 10 czerwca 2014 roku.

Infrastruktura IT to nie tylko centra danych i chmury, które dziś buduje wiele firm. Infrastrukturalne rozwiązania IT obejmują okablowanie strukturalne, sieci pamięci masowej, telefonię, stacje robocze, a nawet urządzenia osobiste użytkowników, z których korzystają w ramach koncepcji BYOD. Centra danych zwykle wiążą się z centralizacją zasobów, jednak zgodnie z: Marina Anszina, przewodniczący komitetu normalizacyjnego Związku CIO Rosji, centralizacja nie zawsze jest dobra. Również w IT zasadą jest, aby nie wkładać wszystkich jajek do jednego koszyka. Wobec braku kompetentnej organizacyjnej i funkcjonalnej struktury biznesowej centralizacja infrastruktury IT jest po prostu nieefektywna.

Na infrastrukturę wpływa ogromna ilość wskaźników – od aktualnego stanu firmy i jej pozycji rynkowej po budżet i „technologię” zarówno pracowników IT, jak i biznesowych. Wymagania dotyczące infrastruktury IT i ogólnie IT to warstwowe umowy SLA (umowy dotyczące poziomu usług). Biznes jest zainteresowany tylko wyższym poziomem, czyli interakcją z usługami IT, na niższych poziomach SLA istnieje w pakietach „usługi – oprogramowanie” lub „platformy aplikacyjne – oprogramowanie systemowe”.

Średnie i duże firmy dość często wolą rozwijać własną infrastrukturę niż migrować do chmur. Przyczyny leżą nie tylko w dziedzinie bezpieczeństwa (dziś nie jest to już główny problem), ale także w geopolityce, specyfice opodatkowania i dość trudnej kwestii, co zrobić z istniejącą infrastrukturą. Jeśli jednak zapadnie decyzja o przejściu do chmury, to zarówno w Rosji, jak i w krajach sąsiednich, według szacunków dostawców chmury istnieje już infrastruktura, którą można łatwo zintegrować z wewnętrznymi systemami korporacyjnymi. Maxim Berezin, szef wirtualnego centrum danych firmy Croc w szczególności zdementował opinię, że zasoby chmurowe służą tylko dla środowisk testowych. Według wewnętrznych statystyk firmy, do 80% zasobów centrów danych Krok jest obsługiwanych przez tzw. środowisko produkcyjne. Głównymi użytkownikami chmury są firmy finansowe i detaliczne (stanowią one 50%). Najbliższe plany „Croca” związane są z przeniesieniem systemów pamięci masowej na pamięci flash, rozliczaniem godzinowym oraz nowym systemem billingowym pozwalającym na generowanie szczegółowych raportów o zużytych zasobach.

Że podejście oparte na chmurze (IaaS) zapewnia lepsze zarządzanie ryzykiem finansowym i organizacyjnym, zgadzam się i Stanisław Spirkow, kierownik wiodący DEAC. Jest przekonany, że przywództwo IT zyskuje niezbędne zasoby na żądanie dyrektor finansowy skuteczniej zarządza i kontroluje wydatki operacyjne, a przywództwo biznesowe przenosi koncentrację z wydatków kapitałowych na rozwój i ciągłość biznesową. Właśnie taki schemat, według słów Maria Shilina, szef Dyrekcji ds. Problemów Mieszkaniowych i Komunalnych Centrum Analitycznego przy rządzie Federacji Rosyjskiej, jest potrzebny w mieszkalnictwie i usługach komunalnych naszego kraju, aby mieszkańcy, władze i przedsiębiorstwa mogły polegać na stabilnej, wiarygodnej podstawie informacyjnej. Jednak dziś dostawcy usług w chmurze nie widzą partnerów na rynku mieszkaniowym i usług komunalnych (a jest to ponad 200 tys. organizacji) jako partnera, ale tymczasem rynek ten potrzebuje również pomocy specjalistów IT w opracowaniu jednolitych wymagań funkcjonalnych dla systemów IT oraz tworzenie jednolitych zasad i standardów, podobnych do tych przyjętych przez Amerykanów instytut narodowy standardy i technologie (NIST).

Przejście na model zasobowy świadczenia usług IT powinno obejmować ewolucję nie tylko usług, ale także działu IT. Tak jak usługa zasobów IT osiąga ekonomię skali poprzez konsolidację zasobów i wirtualizację swoich usług, organizacja, która nią zarządza, musi się wirtualizować, aby skutecznie reagować na potrzeby użytkowników. Choć pewna specjalizacja jest nieunikniona po prostu ze względu na złożoność nowoczesnych technologii informatycznych, sztywny podział na specjalizacje – Windows-UNIX, systemy sieciowe, urządzenia pamięci masowej DBMS – jest nieefektywny w kontekście modelu zasobów. Kiedy specjalizacja jest naprawdę potrzebna, konieczny jest jasny podział obowiązków, który nie pozostawia luki w usługach świadczonych użytkownikom.

Centralizacja usług IT niekoniecznie oznacza, że ​​są one fizycznie zlokalizowane w jednym miejscu. Wszystkie argumenty przemawiające za umieszczeniem zasobów IT bliżej użytkowników w celu zminimalizowania opóźnień i kosztów komunikacji pozostają aktualne. Centralizacja oznacza tutaj scentralizowaną administrację i standaryzację usług, które zapewniają spójność technologii informacyjnej w całym przedsiębiorstwie. Pracownik przenoszący się do innego działu musi tam znaleźć te same usługi IT, tak jak turysta podróżujący z Nowego Jorku do Paryża czy Tokio znajduje w pokoju te same udogodnienia.

Zmiana psychologii użytkownika.

Sprawienie, by użytkownicy czuli się komfortowo, gdy zabiera się im kontrolę, zawsze jest wyzwaniem, ale jest to szczególnie trudne w przypadku technologii informatycznych, gdzie od 15 lat użytkownicy mają coraz większą kontrolę nad własnymi serwisami informacyjnymi. Jednak dzisiaj usługi informatyczne padły ofiarą otwartości systemów informatycznych. Pojawienie się tanich, łatwych w obsłudze komputerów skłoniło firmy i działy produkcyjne do automatyzacji przepływów pracy. Dopiero gdy ta automatyzacja już miała miejsce, przyszło zrozumienie, że komputery powinny być połączone w taki sam sposób, jak procesy biznesowe, które automatyzują. Konieczność integracji różnych systemów komputerowych skłania przedsiębiorstwa do powrotu do centralizacji, co czyni model zasobów atrakcyjnym. Wyzwaniem dla architektów zasobów jest osiągnięcie pożądanych korzyści bez utraty przyjazności wydziałowych systemów obliczeniowych. Do ważnych czynników sukcesu działu IT należą: Koncentracja na użytkownikach. Przez cały proces przenoszenia zasobów użytkownicy muszą pozostać w centrum uwagi. Kolejność wdrażania usług zasobów powinna być dostosowana do potrzeb użytkowników. Na początkowych etapach, aby dać użytkownikowi-.

Ci, którzy wierzą w siłę modelu zasobów, powinni angażować się w relacje osobiste. Portale usługowe powinny być budowane tak przyjazne dla użytkownika, jak to tylko możliwe. Raporty powinny zawierać nie więcej i nie mniej niż to, co użytkownicy chcą wiedzieć. Umiejętności techniczne specjalistów IT muszą spełniać standardowe wymagania użytkownika, takie jak znajomość baz danych czy technologii internetowych. Na każdym kroku musisz aktywnie zbierać opinie użytkowników, analizować je i podejmować działania, aby lepiej odpowiadać na potrzeby użytkowników.

Kompletność. Usługa zasobów działa najlepiej, gdy służy całej społeczności. Jeśli usługa może być zaimplementowana w modelu zasobów, należy to zrobić. Ustanowiona usługa zasobów IT powinna zapewniać wszystkie podstawowe usługi infrastrukturalne, usługi zasobów, usługi na żądanie i usługi doradcze wymienione wcześniej w tym rozdziale.

Normalizacja. W usłudze zasobów IT należy ustandaryzować nie tylko usługi (np. jeden rodzaj dublowanej pojemności pamięci masowej, jeden rodzaj odporności na awarie itp.), ale także procesy wewnętrzne. Zamawianie i instalowanie, wdrażanie nowych lub dodatkowych usług, konserwacja i naprawa sprzętu, aktualizacja oprogramowania i instalowanie poprawek — wszystkie te procesy są ustandaryzowane w celu maksymalizacji wydajności, jakości i oszczędności. Automatyzacja. Wszystkie rutynowe operacje w serwisie zasobów powinny być zautomatyzowane. Obejmuje to instalację, wdrażanie, monitorowanie, wykrywanie błędów, samonaprawę i przetwarzanie zgłoszeń serwisowych. Jeśli to możliwe, problemy powinny być wykrywane automatycznie i rozwiązywane, zanim użytkownicy je zauważą. Wszechobecna automatyzacja pozwala działowi zasobów na obniżenie kosztów bez poświęcania zysków ekonomicznych dla całego przedsiębiorstwa. Elastyczność. Dostarczając stabilne usługi, zasobowa usługa IT musi jednocześnie odpowiadać na nieprzewidziane żądania użytkowników. Angażując użytkowników w proces planowania, dział IT zasobów minimalizuje prawdopodobieństwo wystąpienia nieprzewidzianych sytuacji, ale ze względu na swoją rolę usługową w przedsiębiorstwie dział IT jest zobowiązany do reagowania na wszelkie pojawiające się potrzeby użytkowników. Usługa zasobów powinna utrzymywać pulę wolnych zasobów na wypadek nieprzewidzianych potrzeb. Możliwość wdrażania zasobów na żądanie bez negatywnego wpływu na świadczenie usług powinna być częścią architektury systemu. Jednym z największych wyzwań dla dostawcy usług zasobów jest utrzymywanie aktualności technologii przy jednoczesnym utrzymaniu stabilnego menu usług. Zasobowy serwis IT powinien monitorować rozwój technologii (to po prostu czyjaś praca) i okresowo analizować swoją pracę i usługi w świetle ofert rynkowych.

Księgowość. Usługi informatyczne dotyczące zasobów muszą być odpowiedzialne. Usługi powinny być zaprojektowane tak, aby ich koszt był jednoznacznie determinowany stopniem użytkowania. Nieuchronnie pojawi się jakaś wspólna infrastruktura (obszary, sieć korporacyjna, płaca personel IT itp.), ale użytkownicy muszą płacić tylko za usługi, z których korzystają, a nie za przypisaną im część kosztów IT przedsiębiorstwa.

Innowacja. Dział IT musi nieustannie poszukiwać innowacyjnych sposobów ulepszania istniejących i tworzenia nowych usług. Biznes ciągle się zmienia. Jeśli celem jest usługa informatyczna dotycząca zasobów.

Zgodność z celami biznesowymi, musi przewidywać zmieniające się potrzeby. Grupy fokusowe można wykorzystać do identyfikacji potencjalnych nowych usług. Podobnie jak w przypadku przedsiębiorstw użyteczności publicznej, użytkownicy, jeśli usługi IT nie spełniają ich potrzeb, ostatecznie sami rozwiążą swoje problemy, powracając do starych, nieefektywnych podejść.

Partnerzy i dostawcy.

Sukces systemów informatycznych opartych na standardach wynika z tego, że nie wiążą klienta z jednym konkretnym dostawcą. Należy o tym pamiętać przy wyborze dostawców i partnerów do budowy zasobowego systemu informatycznego. Dla każdej znaczącej kategorii sprzętu i oprogramowania wykorzystywanego w usłudze zasobów IT powinny istnieć co najmniej dwa równie efektywne źródła.

Partnerzy często świadczą usługi doradcze. Przed wejściem w jakąkolwiek relację z partnerem należy dokładnie ocenić, jak jego strategia odpowiada filozofii podejścia zasobowego. Niektóre z kluczowych pytań do tej analizy to:

Jak dokładnie partner ocenia wrażenia użytkownika przed zaproponowaniem rozwiązania?

Czy partner ma ulubione rozwiązania, czy jest otwarty na wszelkie możliwe opcje?

Czy partner jest gotowy do pracy ze standardowymi usługami zasobów?.

Czy partner jest w stanie płynnie przenieść użytkowników z istniejących systemów do modelu zasobów?

Czy partner rozumie cele opartego na zasobach podejścia do IT przedsiębiorstwa i jest w stanie pracować nad tymi celami?

Podobnie jak usługa zasobów zawiera umowy dotyczące poziomu usług z użytkownikami, partnerzy muszą być związani umowami dotyczącymi poziomu usług z usługą zasobów. Takie umowy SLA powinny jasno określać, jakie wyniki i poziom bieżącego wsparcia są wymagane od partnera. Umowy partnerskie powinny przewidywać transfer umiejętności do obsługi IT w postaci zarówno szczegółowej dokumentacji, jak i szkoleń.

Dobrzy, choć rzadcy, partnerzy to zazwyczaj organizacje konsultingowe posiadające wiedzę ekspercką zarówno w zakresie IT, jak i analizy organizacyjnej. Dotyczy to zwłaszcza początkowych etapów przejścia na model zasobów. Tacy partnerzy mogą przyspieszyć pomyślne przejście do modelu zasobów i pomóc przezwyciężyć bariery organizacyjne i opór użytkowników.

Wreszcie, standardowe oprogramowanie „zasobowe” (na przykład do tworzenia kopii zapasowych) i aplikacje powinny być „przyjazne dla użytkownika”. Powinny mieć narzędzia do monitorowania zużycia i najlepiej posiadać licencję na podstawie zużycia. Przed wdrożeniem aplikacji rozważ dostosowanie ich do różnorodnych potrzeb przedsiębiorstwa.

Jednym z kluczowych trendów w rozwoju informatyki korporacyjnej od początku tego stulecia stała się centralizacja zasobów obliczeniowych korporacyjnych systemów informatycznych, którą obecnie przedstawia się w skoncentrowanej formie jako problem tworzenia centrów przetwarzania danych (DPC). Jednocześnie trzeba od razu podkreślić: mówimy tylko o tendencji, która nie ma charakteru absolutnego, wiążącego. Równolegle z data center, swoje pozycje zachowują zdecentralizowane schematy alokacji zasobów IT, które dość często okazują się optymalne dla niektórych organizacji.

Tendencja do centralizacji jest generalnie tłumaczona chęcią firm do obniżenia kosztów kapitałowych i operacyjnych IT, zwiększenia efektywności wykorzystania dostępnych zasobów IT. Należy zauważyć, że chociaż główna pozycja wydatków IT rosyjskich przedsiębiorstw (widać to np. z danych IDC - ok. 65%) związana jest z zakupem sprzętu, to głównym powodem rozpoczęcia transformacji na przełomie stuleciem powstania centrów danych była chęć zwiększenia możliwości zarządzania systemami informatycznymi i obniżenia kosztów operacyjnych. Rzeczywiście, w pierwszej połowie dekady nastąpił etap tzw. konsolidacji „fizycznej” – geograficznej i terytorialnej koncentracji sprzętu. Dopiero wtedy rozpoczął się okres konsolidacji wirtualizacji, co pociąga za sobą obniżenie kosztów sprzętu poprzez zwiększenie efektywności jego wykorzystania.

Zauważ też, że kiedy mówimy o centrum danych, mamy na myśli głównie serwerową stronę systemów informatycznych. Część kliencka (stacje robocze) w sposób naturalny zapisze konfigurację rozproszoną w ogólnym przypadku zgodnie ze strukturą przedsiębiorstwa. Ale właśnie ze względu na wzrost wielkości i złożoności systemów komputerowych, znaczenie zadań zarządczych (tu z kolei można wyróżnić dwa aspekty: zarządzanie samym IT i zarządzanie usługami IT) stale rośnie. Bardzo wyraźnie pokazał to miniony kryzysowy rok.

Centralizacja i decentralizacja IT

Centralizacja i decentralizacja IT to dwa podejścia do tworzenia korporacyjnych systemów informatycznych, które są połączone klasycznym dialektycznym prawem jedności i walki przeciwieństw. Łatwo zauważyć, że stosunek tych dwóch części również zmienia się w czasie, w pełnej zgodności z dialektyczną zasadą cyklicznego rozwoju, którą można przedstawić graficznie jako sinusoida, a nie jedna, ale kilka.

Obecna dekada charakteryzuje się więc tendencją do konsolidacji oprogramowania platformy i zasobów sprzętowych, która zastąpiła dominującą w latach 90-tych. zdecentralizowany model. Ale jednocześnie w dziedzinie oprogramowania stosowanego następuje dokładnie odwrotny ruch od stosowania systemów monolitycznych do schematów rozproszonych na komponentach (SOA, WOA, mashup).

Dokładnie te same sprzeczne trendy dotyczą wyboru dostawców komputerów. Z jednej strony idea „najlepszych praktyk” implikuje możliwość wykorzystania najlepszych ofert do rozwiązania danego problemu. Z drugiej strony, z punktu widzenia zarządzania całą gospodarką IT, klienci są zainteresowani skorzystaniem z opcji all-in-one od jednego dostawcy, minimalizującej koszty integracji i utrzymania komponentów IT.

Wszystko to odnosi się do tradycyjnych zadań polegających na dokonywaniu optymalnego wyboru między specjalizacją a wszechstronnością, między elastycznością a sterowalnością. Jeśli jednak ogólnie ocenimy kluczowy trend w IT współczesności, to nadal priorytetowym kierunkiem jest kurs na zwiększenie zarządzalności systemów obliczeniowych i to w kontekście długofalowych perspektyw ich rozwoju.

Kontrola kryzysowa

Najogólniej rzecz biorąc, miniony rok charakteryzował się gwałtownym spadkiem kosztów rozwoju IT przedsiębiorstw (w tym realizacji nowych projektów) oraz walką o poprawę efektywności wykorzystania dostępnych środków. Potwierdzają to dane z różnych badań rynkowych.

Z ryc. 1 wyraźnie pokazuje, jak zmieniła się struktura inwestycji informatycznych na korzyść oprogramowania do zarządzania (np. informacje IDC). Sytuacja jest jeszcze bardziej uderzająca w dziedzinie narzędzi do wirtualizacji: według szacunków tej samej firmy IDC dostawy oprogramowania maszyn wirtualnych powinny w 2009 roku wzrosnąć o 11%, a to na tle ogólnego spadku sprzedaży całego oprogramowania o 48%, a rynek IT jako całość – o 46%. Tabela ilustruje realokację wydatków na IT pomiędzy grupami produktów.

Zmiana wydatków na IT według grup produktów w 2009 roku (Źródło: IDC)

Grupy wydatkówWydatek
ZmniejszenieSprzęt (serwery, systemy pamięci masowej, komputery PC, urządzenia drukujące i kopiujące, sprzęt sieciowy)
Usługi IT (integracja systemów, instalacja i konfiguracja sprzętu, tworzenie oprogramowania na zamówienie, edukacja i szkolenia)
Oprogramowanie (aplikacje biznesowe, bazy danych, system operacyjny)
Odroczone wydatkiKonsolidacja infrastruktury
Aktualizacja systemu operacyjnego i aplikacji
Rutynowa wymiana komputerów, urządzeń drukujących i kopiujących
Zoptymalizowane kosztyKonserwacja sprzętu i oprogramowania
Materiały zużywalne
Zewnętrzni dostawcy usług IT, outsourcing
Podstawowa infrastruktura IT
Stabilne kosztySystemy bezpieczeństwa IT
Oprogramowanie do zarządzania siecią, serwerami i pamięcią masową
Oprogramowanie do konfiguracji i zarządzania zmianami

Ogólnie rzecz biorąc, rosnące zainteresowanie klientów większym wykorzystaniem automatyzacji IT było spowodowane takimi czynnikami, jak kurczenie się budżetów IT i personelu IT, rosnąca złożoność infrastruktury IT, zmiany w procesach biznesowych organizacji na rynku fuzji i przejęć oraz konieczność przestrzegania wymogów regulacyjnych.

Zintegrowane podejście do organizacji centrum danych

Jedną z głównych zasad organizacji data center jest rozumienie tego problemu jako zespołu powiązanych ze sobą zagadnień rozpatrywanych w kontekście rozwiązywania krótko- i długoterminowych zadań rozwoju systemów informatycznych organizacji.

Należy zauważyć, że chociaż temat centrów danych jest stale poruszany na rosyjskich wydarzeniach informatycznych i publikacjach informatycznych, to dość często kwestie te są poruszane bardzo jednostronnie, co zwykle tłumaczy się specjalizacją konkretnego dostawcy.

W najbardziej ogólnej postaci strukturę centrum danych można przedstawić w postaci czterech głównych warstw:

  • ogólna infrastruktura fizyczna (pomieszczenia, instalacje zasilania, chłodzenia, instalacje przeciwpożarowe itp.);
  • sprzętowa infrastruktura IT (serwery, urządzenia pamięci masowej, sieci itp.);
  • platforma oprogramowania (OS, systemy wirtualizacji, narzędzia do zarządzania, narzędzia programistyczne, narzędzia bezpieczeństwa);
  • stosowane rozwiązania biznesowe.

Należy pamiętać, że cały system charakteryzuje się wysokim stopniem niejednorodności, wykorzystaniem technologii i rozwiązań od dużej liczby dostawców. Jednocześnie analitycy odnotowują dość wyraźnie wyrażoną chęć klientów do szerszego stosowania podejść monoplatformowych przy tworzeniu centrów danych, co wskazuje, że kwestie zarządzania systemami mają wysoki priorytet.

Trzeba też powiedzieć, że ogólnym kluczowym trendem w rozwoju IT jest kurs na zwiększenie powiązania między IT a celami biznesowymi. Dlatego relacja pomiędzy realizowanymi projektami informatycznymi a zadaniami głównych działań organizacji powinna być dziś decydującym momentem w określeniu i realizacji strategii rozwoju systemów informatycznych przedsiębiorstwa.

O potrzebie zintegrowanego podejścia do tworzenia infrastruktury informatycznej przedsiębiorstw dobitnie świadczą wyniki badania Marketvisio/Gartner, przeprowadzonego na podstawie ankiety CIO dużych rosyjskich firm w połowie tego roku. Wynika z nich, że uogólniony pogląd klientów o efektywnym środowisku IT wiąże się z takimi cechami, jak szybka reakcja na zgłoszenia biznesowe, wysokie wskaźniki wdrożenia niezbędnych systemów, zapewnienie ciągłości procesów biznesowych (maksymalna dostępność usług IT, minimum przestojów), przejrzystość i bezpieczeństwo danych.

W związku z tym CIO stawiają optymalizację wykorzystania zasobów IT jako priorytetowe zadanie dla rozwoju informatycznego swoich przedsiębiorstw, co oznacza ich centralizację, przejście na wirtualizację, zwiększenie poziomu dostępności usług i obniżenie kosztów posiadania infrastruktury. Osobno należy zwrócić uwagę na kwestie oszczędzania energii, które dziś stają się kluczowe dla rozwoju dużych systemów informatycznych, zwłaszcza w megamiastach. Jednocześnie zapewnienie ciągłości biznesowej pozostaje kluczowym wymogiem rozwoju infrastruktury IT, co implikuje m.in. wysoką odporność IT.

Główni gracze na rynku zarządzania IT

W segmencie narzędzi do zarządzania IT jako całości panuje ogólna tendencja na korporacyjnym rynku IT – integracja poszczególnych narzędzi w warstwę oprogramowania platformy. Należy jednak zauważyć, że choć w tym obszarze byli i są wyspecjalizowani dostawcy (np. CA, Symantec), to jednak historycznie prym wiedli producenci platform i sprzętu. Dotyczy to oczywiście przede wszystkim firm takich jak HP i IBM.

HP jest jednym z wieloletnich liderów w dziedzinie zarządzania IT, a jego rodzina produktów pod marką OpenView jest dobrze znana zarówno na świecie, jak iw Rosji. Po przejęciu firmy Mercury w 2006 r. pakiet rozwiązań programowych HP przeszedł pewną restrukturyzację zgodnie z nową strategią o nazwie Business Technology Optimization (BTO). Obecnie pakiet oprogramowania HP do zarządzania IT to zestaw dwunastu centrów, które łączą moduły oprogramowania według przeznaczenia i są klasyfikowane jako inicjatywy funkcjonalne w obszarach strategii, wdrażania i eksploatacji.

Specyfika pozycjonowania HP na tym rynku wynika z faktu, że cały kierunek programistyczny firmy historycznie rozwijał się w oparciu o zadania zarządcze, przede wszystkim sprzętowe, z ukierunkowaniem na segment dużych klientów (wejście do małych i średnich firm). rynek nie jest deklarowany nawet na poziomie perspektyw). Ponadto wdrożenie takich rozwiązań programowych prawie zawsze wymaga zaangażowania silnych integratorów systemów. Nie należy również zapominać, że HP jest jednym z największych dostawców usług na świecie.

IBM, wraz ze swoją rodziną oprogramowania Tivoli, jest najstarszym i prawdopodobnie największym dostawcą narzędzi do zarządzania IT. Tradycyjnie silny punkt firma - koncentruje się na wspieraniu standardów wieloplatformowych i branżowych. Choć IBM tradycyjnie kojarzy się z dużym rynkiem klientów, korporacja nieustannie stara się zmierzać w kierunku klientów z segmentu SMB (produkty Express).

Mówiąc o produktach Tivoli (i ogólnie o oprogramowaniu IBM) trzeba zrozumieć, że ich rozwój jest w dużej mierze zdeterminowany tendencją do przesuwania interesów biznesowych korporacji w kierunku świadczenia usług (obszary techniczne i konsultingu biznesowego przynoszą ponad połowę jej przychodów ). Jednocześnie obfitość rozwiązań programowych, w tym wzajemne powielanie, stwarza problemy dla IBM. Klienci czasami po prostu gubią się w tych propozycjach i nie mają jasnego wyobrażenia o mapie drogowej IBM. Aby rozwiązać wiele problemów, klienci potrzebują zestawów narzędzi z różnych pakietów. Ponadto klienci często narzekają na dość skomplikowany model cenowy oprogramowania IBM, a także na to, że muszą wydawać duże pieniądze na zewnętrzne usługi wdrażania i wsparcia produktów.

Microsoft jest stosunkowo nowym graczem w segmencie zarządzania IT klasy korporacyjnej. Firma mocno ogłosiła swoje poważne plany w tym zakresie w 2003 roku, formułując swoją strategiczną wizję problemu w postaci koncepcji Dynamic Systems Initiative (DSI). W tym czasie Microsoft miał tylko dwa produkty w tym obszarze - Systems Management Server i Microsoft Operations Manager. Co ciekawe, początkowo w Redmond rozmawiano o zamiarze stworzenia jednego rozwiązania o nazwie System Center, łączącego te dwa produkty, a następnie rozszerzającego jego funkcjonalność. Ale potem firma dostosowała swoje plany, wybierając opcję zestawu narzędzi. Obecna polityka technologiczna zarządzania IT została wprowadzona w 2005 roku, kiedy ogłoszono plany dotyczące rodziny oprogramowania System Center. Pakiet zawiera teraz osiem rozwiązań, obejmujących całe spektrum zadań związanych z zarządzaniem IT (z wyłączeniem zarządzania sprzętem; Service Manager jest również w wersji beta do zarządzania usługami IT).

W tym miejscu należy podkreślić, że na tym rynku Microsoft w trakcie rozwoju rodziny System Center wdraża jakościowo odmienny (w porównaniu do tego samego HP i IBM) paradygmat, pozycjonując się jako dostawca platformy Windows i ogromny zestaw rozwiązań infrastruktury i oprogramowania aplikacyjnego, które działają na tej platformie i współdziałają z nią. Mówiąc obrazowo, System Center zaczęto budować wokół wiedzy zgromadzonej przez korporację na temat procesów zarządzania i utrzymania jej podstawowych produktów. Jednak rosnąca złożoność połączeń między różnymi produktami i rozwiązaniami, zarówno samego Microsoftu, jak i innych producentów, wymagała opracowania nowego modelu. Opiera się na procesach metodologii Microsoft Operations Framework, podstawowej wiedzy o infrastrukturze Microsoft oraz możliwości łatwego rozszerzania systemu o nową wiedzę o produktach, rozwiązaniach i ich relacjach, dostarczaną w postaci „pakietów zarządzania”.

Biorąc pod uwagę ogromny ekosystem partnerów Microsoft - twórców oprogramowania oraz proaktywną pozycję samej korporacji, pakiety administracyjne zaczęły pojawiać się szybko zarówno dla większości komponentów sprzętowych (począwszy od poziomu chipsetu, komputera, urządzeń sieciowych itp.), jak i dla narzędzi programowych i rozwiązania. Obsługuje heterogeniczne środowiska dzięki szeroko zakrojonym partnerstwom branżowym z niezależnymi dostawcami oprogramowania, takim jak umowy strategiczne z firmami Sun i Novell. Ale ta specyfika Microsoftu ma swoje zalety: w szczególności jest to wysoki poziom integracji narzędzi zarządzania między sobą, z systemem operacyjnym i stosowanymi rozwiązaniami (przypomnijmy trend w rozwoju infrastruktury IT w kierunku monoplatformy). ). Jednocześnie w ramach swojej platformy programowej firma może realizować ideę zarządzania systemami z naciskiem na usługi end-to-end. Niewątpliwymi zaletami Microsoftu są także tradycyjne wsparcie całego spektrum klientów (od małych do największych) oraz obecność ogromnego ekosystemu partnerskiego.

Wirtualizacja jako kluczowa technologia infrastruktury

Od połowy tej dekady wykorzystanie technologii wirtualizacji stało się głównym trendem w rozwoju infrastruktury IT przedsiębiorstw w ogóle - a zwłaszcza centrów danych. Teraz możemy śmiało powiedzieć (na podstawie opinii klientów, danych analityków i ocen ekspertów), że rok 2008 był punktem zwrotnym w promowaniu technologii wirtualizacji serwerów na Rynek rosyjski... Nawet kryzys nie mógł zapobiec powszechnej dystrybucji tych środków; co więcej, to właśnie trudne warunki ekonomiczne w pewnym stopniu stanowiły dodatkową zachętę dla klientów do wdrożenia wirtualizacji, ponieważ umożliwiło to realną redukcję kosztów w dość krótkim czasie.

Należy jednak podkreślić, że wciąż jesteśmy na wczesnym etapie powszechnego wdrażania wirtualizacji, a klienci stoją przed nie tylko korzyściami z jej użytkowania, ale także koniecznością rozwiązania nowych, czasem dość nieoczekiwanych problemów.

Opublikowany jesienią tego roku raport IDC „Od wirtualizacji serwerów do wirtualizacji infrastruktury biznesowej” przedstawia jej wizję całego rynku maszyn wirtualnych (Rysunek 2). Wygląda na to, że nasz kraj znajduje się obecnie w początkowej fazie rozszerzonego wykorzystania wirtualizacji serwerów. Z podsumowanych opinii klientów wynika, że ​​główne korzyści z wdrożenia tych narzędzi to zmniejszenie kosztów kapitałowych i operacyjnych, uproszczona struktura IT, skrócony czas reakcji, zwiększona ciągłość działania, możliwość wykorzystania nowych zasad planowania mocy obliczeniowej oraz nowe modele alokacji kosztów.. .

Należy zauważyć, że właśnie w 2008 roku w obozie dostawców wirtualizacji zaszły radykalne zmiany, które zaczęły mieć potężny wpływ na rozwój całego tego rynku. Sedno sprawy polega na tym, że dotychczas dominującą, praktycznie monopolistyczną pozycję w tym obszarze zajmowała firma VMware. Jednak sytuacja zmieniła się diametralnie w ciągu ostatnich dwóch lub trzech lat w wyniku pojawienia się nowych poważnych graczy na tym rynku (Citrix, Novell, Red Hat, Oracle, Sun, IBM) kierowanych przez Microsoft z nowym Hyper-V hiperwizor.

Ogólny obraz stanu rzeczy w dziedzinie narzędzi do wirtualizacji wygląda mniej więcej tak.

Na konferencji Gartner Symposium/ITxpo tej jesieni zauważono, że mimo obfitości rozmów o wirtualizacji, technologia ta nie jest jeszcze wykorzystywana tak szeroko, jak mogłoby się wydawać. Ale jego popularność rośnie. Gartner szacuje, że tylko 16% obciążeń serwerów x86 jest obecnie obsługiwanych przez maszyny wirtualne na świecie, ale za trzy lata udział ten wzrośnie do 50%. Należy podkreślić, że choć wiele osób uważa, że ​​technologie wirtualizacji są skierowane do dużych przedsiębiorstw i centrów danych, liczba wdrożonych maszyn wirtualnych na świecie rośnie obecnie najszybciej w segmencie małych firm.

Rynek narzędzi do wirtualizacji jest w trakcie rozwoju i restrukturyzacji. Dlatego ocena sytuacji za pomocą tak tradycyjnych wskaźników jak udział w rynku w ujęciu pieniężnym i ustalona baza produktów często nie daje prawidłowego zrozumienia tego, co się dzieje. W każdym przypadku ocena powinna być przeprowadzona na podstawie analizy dynamiki rozwoju technologii, zrozumienia technologii i strategia marketingowa dostawców.

Co ważne, od początku 2008 roku istnieje wyraźna tendencja do „zanikania” rynku hiperwizorów, przejścia tych rozwiązań do kategorii produktów darmowych. W dużej mierze proces ten spowodowany był wejściem na rynek czołowych dostawców platform (przede wszystkim Microsoft), którzy pozycjonują narzędzia maszyn wirtualnych jako rozwiązania pomocnicze do promocji swoich głównych produktów komercyjnych (w tym narzędzi do zarządzania środowiskami obliczeniowymi).

Wyniki różnych ankiet wśród rosyjskich klientów pokazują, że rozpowszechnienie technologii wirtualizacji VMware i Microsoft jest obecnie mniej więcej na tym samym poziomie (ich udziały wynoszą 40-50%). Ale w rzeczywistości daje to obraz tylko w „pierwszym przybliżeniu”, ponieważ nie uwzględnia „głębokości penetracji” tych środków w infrastrukturę IT przedsiębiorstw (stosunek serwerów wirtualnych do fizycznych, wykorzystanie wirtualizacja dla krytycznych aplikacji, wykorzystanie równoważenia obciążenia i odporności na awarie).

Narzędzia do wirtualizacji od „nowych” graczy (Microsoft, Citrix itp.) pojawiły się na rynku stosunkowo niedawno i są raczej w trakcie testowania przez klientów w projektach pilotażowych. Dopiero teraz branża zaczęła gromadzić masę krytyczną wiedzy specjalistycznej, aby wspierać ich szersze zastosowanie. Jednocześnie istnieje pewien czynnik ograniczający: postrzeganie produktów przez klientów jest zauważalnie opóźnione w procesie realnego rozwoju możliwości tych narzędzi.

Chociaż zasięg wirtualizacji infrastruktury serwerowej jest wciąż bardzo daleki od 100%, nadal można śmiało powiedzieć, że proces przenoszenia serwerów fizycznych do środowiska wirtualnego jest opanowany przez branżę i nie przedstawia żadnych szczególnych problemów. Ale właśnie teraz rozpoczyna się nowy etap wykorzystania wirtualizacji, związany z tworzeniem i zarządzaniem dynamiczną wirtualno-fizyczną infrastrukturą IT. Analitycy jednogłośnie zgadzają się, że spektrum problemów związanych z konkurencją klientów i dostawców przesuwa się w sferę kontroli IT.

Mówiąc o tym problemie, należy zwrócić uwagę na kilka linii rozwoju sytuacji. Jedną z nich jest konkurencja między dwiema grupami dostawców IT - dostawcami hiperwizorów i niezależnymi dostawcami zarządzania (np. HP, CA). Każda z nich ma swoje zalety: pierwsza cechuje się wysokim poziomem integracji swoich systemów oprogramowania, druga skupia się na obsłudze heterogenicznych środowisk i, co może być znacznie ważniejsze, dostępności pełnej gamy narzędzi (m.in. na przykład konfiguracja i zarządzanie zmianą). Zwróćmy tutaj uwagę na szczególną pozycję Microsoftu, który może pozycjonować się w obu możliwościach (ale oczywiście z mocnym przywiązaniem do Windowsa).

Pomimo tego, że hipernadzorcy zeszli obecnie na dalszy plan w ogólnym kompleksie oprogramowania do wirtualizacji i że na tym rynku istnieje dość duża grupa dostawców, w tym wszyscy światowi liderzy IT, należy zauważyć, że główna linia rozwoju Sytuację tutaj określa konkurencja między VMware a Microsoftem. (Jednak oczywiście ważną rolę odgrywają również inni dostawcy, których pozycja charakteryzuje się koncentracją na wykorzystaniu narzędzi do wirtualizacji otwartej).

Istota konfrontacji między VMware a Microsoftem tkwi w fundamentalnie odmiennej wizji miejsca wirtualizacji w całym kompleksie korporacyjnej infrastruktury IT.

Firma VMware półtora roku temu sformułowała swój strategiczny cel - stworzenie nowej warstwy operacyjnej, zapewniającej funkcjonowanie maszyn wirtualnych w rozproszonym środowisku sprzętowym. Jednocześnie zakłada się, że rola tradycyjnych systemów operacyjnych w takim systemie będzie się stopniowo zmniejszać, aż do ich całkowitego zaniku (por. PC Week / RE No. 45/2009, http://www.pcweek.ru/ motywy/szczegóły.php?ID= 121133). Zrozumiałe, że taka perspektywa nie jest zbyt inspirująca dla dostawców systemów operacyjnych.

W przeciwieństwie do tego Microsoft postrzega wirtualizację jako ewolucję systemów operacyjnych. To w tym kontekście rozwija się Hyper-V, który początkowo traktowany jest jako dodatkowy składnik Windows Server (należy jednak podkreślić, że obsługuje różne systemy operacyjne jako gość).

Ten dylemat (hiperwizor jako niezależne środowisko operacyjne lub jako składnik systemu operacyjnego) ma szereg aspektów technologicznych i marketingowych, które są ważne również dla twórców aplikacji i narzędzi do zarządzania: jaką linię strategiczną powinni obrać. Ogólna teoria mówi, że najbardziej stabilnym modelem systemów jest schemat trójwarstwowy (w tym przypadku sprzęt – system operacyjny – aplikacje).Biorąc to pod uwagę można przyjąć, że rozdzielenie środowiska wykonawczego oprogramowania na dwie niezależne warstwy jest mało prawdopodobne. I w tej sytuacji opcja Microsoftu wydaje się bardziej opłacalna, zwłaszcza biorąc pod uwagę konserwatyzm rynku IT, gdzie mimo swojej innowacyjności jednym z kluczowych czynników rozwoju jest konieczność obsługi starszych systemów (tzw. ochrona inwestycji i ciągłość działania). .

Należy zauważyć, że analitycy rynku wirtualizacji wyraźnie unikają prognoz rozwoju sytuacji konkurencyjnej w tym obszarze. Ale wszyscy zgadzają się co do jednego: wykorzystanie wirtualizacji (pod względem zasięgu i głębokości penetracji) będzie niezmiennie rosło, a rozwój technologii będzie jednak podążał ścieżką ewolucyjną.

 


Czytać:



Najlepsze pomysły biznesowe dla małych miast

Najlepsze pomysły biznesowe dla małych miast

Font A A Założenie własnej firmy w małym miasteczku to alternatywa dla pracy u wujka za niską pensję bez perspektyw...

Pomysły biznesowe dla początkujących

Pomysły biznesowe dla początkujących

Ciekawy pomysł na biznes od podstaw - kawiarnia na kółkach, potrzebujesz minibusa, ekspresu do kawy, dodatków, syropów, kawy, mleka, jednorazowej zastawy stołowej i tak...

Gówniana platforma. Sieci CPA - czym one są? Programy partnerskie sieci CPA: ocena, opis i recenzje. Jak istnieją typy sieci CPA

Gówniana platforma.  Sieci CPA - czym one są?  Programy partnerskie sieci CPA: ocena, opis i recenzje.  Jak istnieją typy sieci CPA

CPA lub Cost per action system: płatność za działanie. Zaletą arbitrażu ruchu CPA jest to, że reklamodawca nie płaci za wszystkie wyświetlenia, a jedynie...

Biznes plan biznesowy hurtowy papeterii

Biznes plan biznesowy hurtowy papeterii

Do czytania 9 min. Odsłon 28 Opublikowano 23.09.2018 Istnieje wiele różnych grup produktów, w których popyt na produkty nie jest ...

obraz kanału RSS