Centralizacja infrastruktury systemów informatycznych. Scentralizowany system zarządzania infrastrukturą IT. Zintegrowane podejście do organizacji centrum danych

Jednym z kluczowych trendów rozwoju korporacyjnego IT od początku tego stulecia jest centralizacja korporacyjnych zasobów obliczeniowych. systemy informacyjne, który obecnie jest przedstawiany w skoncentrowanej formie jako problem tworzenia centrów przetwarzania danych (DPC). Jednocześnie musimy od razu podkreślić: mówimy tylko o trendzie, który nie jest absolutny, obowiązkowy. Równolegle z centrami danych zdecentralizowane schematy rozmieszczenia zasobów IT również zachowują swoje pozycje, które często okazują się optymalne dla niektórych organizacji.

Tendencję do centralizacji na ogół tłumaczy się chęcią firm do ograniczenia kosztów kapitałowych i operacyjnych IT oraz zwiększenia efektywności wykorzystania istniejących zasobów IT. Należy zauważyć, że chociaż główna pozycja wydatków informatycznych rosyjskich przedsiębiorstw (widać to na przykład z danych IDC – około 65%) związana jest z zakupem sprzętu, to główną przyczyną przejścia na przełomie wieków do tworzenie centrów danych wynikało z chęci zwiększenia możliwości zarządzania systemami informatycznymi i obniżenia kosztów eksploatacji. Rzeczywiście, w pierwszej połowie dekady nastąpił etap tzw. konsolidacji „fizycznej”, czyli geograficznej i terytorialnej koncentracji sprzętu. Dopiero wtedy rozpoczął się wirtualizacyjny okres konsolidacji, który wiąże się z obniżeniem kosztów sprzętu poprzez zwiększenie efektywności jego wykorzystania.

Zauważmy również, że mówiąc o centrach danych, mamy na myśli głównie część serwerową systemów informatycznych. Część kliencka (stacje robocze) będzie oczywiście utrzymywać rozproszoną konfigurację zgodną ze strukturą przedsiębiorstwa. Ale właśnie ze względu na wzrost rozmiaru i złożoności systemy komputerowe Znaczenie zadań zarządczych (tu z kolei można wyróżnić dwa aspekty: zarządzanie samym IT oraz zarządzanie usługami IT) stale wzrasta. Bardzo wyraźnie pokazał to miniony kryzysowy rok.

Centralizacja i decentralizacja IT

Centralizacja i decentralizacja IT to dwa podejścia do tworzenia korporacyjnych systemów informatycznych, które łączy klasyczne dialektyczne prawo jedności i walki przeciwieństw. Łatwo zauważyć, że stosunek tych dwóch części również zmienia się w czasie, w pełnej zgodności z dialektyczną zasadą rozwoju cyklicznego, którą można graficznie przedstawić jako sinusoidę, a nie jedną, ale kilka.

Obecną dekadę charakteryzuje zatem tendencja do konsolidacji zasobów programowych i sprzętowych platform, która zastąpiła dominującą w latach 90-tych. zdecentralizowany model. Ale jednocześnie w dziedzinie oprogramowania aplikacyjnego następuje dokładnie odwrotny ruch od stosowania systemów monolitycznych do schematów rozproszonych komponentowo (SOA, WOA, mashup).

Te same sprzeczne tendencje dotyczą wyboru dostawców komputerów. Z jednej strony idea „najlepszych praktyk” zakłada umiejętność wykorzystania najlepszych propozycji do rozwiązania każdego indywidualnego problemu. Z drugiej strony, z punktu widzenia zarządzania całą gospodarką IT, klienci są zainteresowani wykorzystaniem opcji „wszystko w jednym” od jednego dostawcy, minimalizując koszty integracji i wsparcia technicznego komponentów IT.

Wszystko to odnosi się do tradycyjnych problemów optymalnego wyboru między specjalizacją a wszechstronnością, między elastycznością a sterowalnością. Jeżeli jednak całościowo ocenimy kluczowy trend informatyczny współczesności, to kierunkiem priorytetowym pozostaje nadal kurs w stronę zwiększania zarządzalności systemów komputerowych, i to w kontekście długoterminowej perspektywy ich rozwoju.

Próba kryzysowa

Najogólniej miniony rok charakteryzował się wyraźnym ograniczeniem wydatków przedsiębiorstw na rozwój IT (w tym na wdrażanie nowych projektów) oraz walką o zwiększenie efektywności wykorzystania dostępnych środków. Potwierdzają to dane z różnych badań rynkowych.

Z ryc. 1 wyraźnie pokazuje, jak zmieniła się struktura inwestycji w IT na korzyść oprogramowania zarządzającego (na przykładzie informacji IDC). Jeszcze bardziej uderzająca jest sytuacja w obszarze narzędzi wirtualizacyjnych: według szacunków tego samego IDC dostawy oprogramowania maszyn wirtualnych powinny na koniec 2009 roku wzrosnąć o 11% i to w kontekście ogólnego spadku sprzedaży całe oprogramowanie o 48%, a rynek IT jako całość – o 46%. Tabela ilustruje redystrybucję kosztów IT pomiędzy różnymi grupami produktów.

Zmiany wydatków na IT według grup produktowych w 2009 roku (źródło: IDC)

Grupy wydatkówWydatek
ZmniejszenieSprzęt (serwery, systemy pamięci masowej, komputery PC, urządzenia drukujące i kopiujące, sprzęt sieciowy)
Usługi IT (integracja systemów, instalacja i konfiguracja sprzętu, tworzenie oprogramowania na zamówienie, szkolenia i przygotowanie)
Oprogramowanie (aplikacje biznesowe, bazy danych, system operacyjny)
Odroczone wydatkiKonsolidacja infrastruktury
Aktualizacje systemu operacyjnego i aplikacji
Planowana wymiana komputerów PC, urządzeń drukujących i kopiujących
Zoptymalizowane kosztyKonserwacja sprzętu i oprogramowania
Materiały eksploatacyjne
Zewnętrzni dostawcy usług IT, outsourcing
Podstawowa infrastruktura IT
Stabilne wydatkiSystemy bezpieczeństwa informatycznego
Oprogramowanie do zarządzania sieciami, serwerami i systemami pamięci masowej
Oprogramowanie do zarządzania konfiguracją i zmianami

Ogólnie rzecz biorąc, rosnące zainteresowanie klientów zwiększonym wykorzystaniem automatyzacji IT wynika z takich czynników, jak redukcja budżetów IT i personelu IT, rosnąca złożoność infrastruktury IT, zmiany w procesach biznesowych organizacji zachodzące na rynku fuzji i przejęć oraz konieczność przestrzegania wymogi regulacyjne.

Zintegrowane podejście do organizacji centrum danych

Jedną z głównych zasad organizacji centrum danych jest rozumienie tego problemu jako zespołu powiązanych ze sobą zagadnień rozpatrywanych w kontekście rozwiązywania krótko- i długoterminowych problemów w rozwoju systemów informatycznych organizacji.

Zauważmy, że choć tematyka data center stale pojawia się na rosyjskich wydarzeniach IT i w publikacjach informatycznych, dość często tematyka ta jest omawiana w bardzo jednostronny sposób, co zwykle tłumaczy się specjalizacją konkretnego dostawcy.

W samym ogólna perspektywa Strukturę centrum danych można przedstawić w postaci czterech głównych warstw:

  • ogólna infrastruktura fizyczna (lokale, zasilanie, systemy chłodzenia, systemy gaśnicze itp.);
  • sprzętowa infrastruktura IT (serwery, urządzenia pamięci masowej, sieci itp.);
  • platforma oprogramowania (system operacyjny, systemy wirtualizacji, narzędzia do zarządzania, narzędzia programistyczne, narzędzia bezpieczeństwa);
  • zastosowanych rozwiązań biznesowych.

Należy wziąć pod uwagę, że cały system charakteryzuje się dużym stopniem heterogeniczności, wykorzystaniem technologii i rozwiązań pochodzących od dużej liczby dostawców. Jednocześnie analitycy zauważają dość wyraźnie wyrażoną chęć klientów do szerszego wykorzystania rozwiązań jednoplatformowych przy tworzeniu centrów danych, co wskazuje, że kwestie zarządzania systemami mają wysoki priorytet.

Należy również stwierdzić, że ogólnym kluczowym trendem w rozwoju IT jest kurs w kierunku zwiększania powiązania IT z celami biznesowymi. Dlatego powiązanie realizowanych projektów informatycznych z zadaniami podstawowej działalności organizacji powinno być dziś decydującym momentem w ustalaniu i wdrażaniu strategii rozwoju systemów informatycznych przedsiębiorstwa.

O konieczności zintegrowanego podejścia do tworzenia infrastruktury informatycznej przedsiębiorstw wyraźnie wskazują wyniki badania Marketvisio/Gartner przeprowadzonego w połowie tego roku na podstawie ankiety wśród CIO dużych rosyjskich firm. Wynika z nich, że uogólnione rozumienie przez klientów efektywnego środowiska IT wiąże się z takimi cechami, jak szybka reakcja na żądania biznesowe, wysokie wskaźniki wdrożeń niezbędnych systemów, zapewnienie ciągłości procesów biznesowych (maksymalna dostępność usług IT, minimalna przestoje), przejrzystość i bezpieczeństwo danych.

W związku z tym CIO jako priorytetowe zadanie rozwoju IT swoich przedsiębiorstw stawiają kwestie optymalizacji wykorzystania zasobów IT, co wiąże się z ich centralizacją, przejściem na wirtualizację, zwiększeniem poziomu dostępności usług i obniżeniem kosztów posiadania infrastruktury . Osobno należy podkreślić kwestie oszczędzania energii, które dziś stają się krytyczne dla rozwoju dużych systemów informatycznych, szczególnie w megamiastach. Jednocześnie zapewnienie ciągłości działania pozostaje kluczowym wymogiem rozwoju infrastruktury IT, co oznacza m.in. wysoką stabilność IT.

Kluczowi gracze na rynku zarządzania IT

W całym segmencie narzędzi do zarządzania IT na rynku IT dla przedsiębiorstw panuje ogólny trend - integracja poszczególnych narzędzi z warstwą oprogramowania platformy. Należy jednak zaznaczyć, że choć w tym obszarze istnieli i są wyspecjalizowani dostawcy (np. CA, Symantec), to historycznie prym wiodą zawsze producenci platform, a w dodatku sprzętu. Mówimy oczywiście przede wszystkim o takich firmach jak HP i IBM.

HP to jeden z wieloletnich liderów w dziedzinie zarządzania IT, a rodzina produktów firmy HP pod marką OpenView jest dobrze znana zarówno na całym świecie, jak i w Rosji. Po przejęciu firmy Mercury w 2006 r. pakiet oprogramowania HP przeszedł pewną restrukturyzację w celu dostosowania go do wymagań nowa strategia zwaną Business Technology Optimization (BTO, optymalizacja technologii pod kątem zadań biznesowych). Obecnie pakiet oprogramowania do zarządzania IT firmy HP to zestaw dwunastu ośrodków, które łączą moduły oprogramowania według przeznaczenia i przypisane do inicjatyw funkcjonalnych w obszarach strategii, wdrażania i operacji.

Specyfika pozycjonowania HP na tym rynku wynika z faktu, że cały kierunek oprogramowania firmy historycznie rozwijał się w oparciu o zadania zarządcze, przede wszystkim sprzętem, z ukierunkowaniem na segment dużych klientów (wejście na rynek małych i średnich przedsiębiorstw nie jest deklarowane nawet na poziomie potencjalnego klienta). Ponadto wdrożenie takich rozwiązań programowych prawie zawsze wymaga udziału silnych integratorów systemów. Nie należy również zapominać, że HP jest jednym z największych dostawców usług na świecie.

IBM ze swoją rodziną oprogramowania Tivoli jest najstarszym i być może największym dostawcą narzędzi do zarządzania IT. Tradycyjną siłą firmy jest koncentracja na wspieraniu standardów wieloplatformowych i branżowych. Choć IBM tradycyjnie kojarzony jest z rynkiem dużego klienta, korporacja cały czas stara się zmierzać w stronę klientów z sektora SMB (produkty Express).

Mówiąc o produktach Tivoli (i w ogóle oprogramowaniu IBM) trzeba zrozumieć, że o ich rozwoju w dużej mierze determinuje trend przesuwania interesów biznesowych korporacji w stronę świadczenia usług (obszary doradztwa technicznego i biznesowego skupiają ponad połowę jej dochód). Jednocześnie obfitość rozwiązań programowych, w tym tych, które się powielają, stwarza problemy dla IBM. Klienci czasami po prostu gubią się w tych propozycjach i nie mają jasnego zrozumienia planu działania IBM. Aby rozwiązać wiele problemów, klienci wymagają zestawów narzędzi z różnych pakietów. Ponadto klienci często narzekają na dość skomplikowany model cenowy oprogramowania IBM, a także na to, że muszą wydawać dużo pieniędzy na usługi zewnętrzne w celu wdrożenia i wsparcia produktów.

Microsoft Corporation to stosunkowo nowy gracz w segmencie narzędzi do zarządzania IT dla przedsiębiorstw. Firma zdecydowanie ogłosiła swoje poważne plany w tym obszarze w 2003 roku, formułując swoją strategiczną wizję problemu w postaci koncepcji Inicjatywy Systemów Dynamicznych (DSI). W tym czasie Microsoft miał tylko dwa produkty w tym obszarze – Systems Management Server i Microsoft Operations Manager. Co ciekawe, Redmond na początku mówił o zamiarze stworzenia jednego rozwiązania o nazwie System Center, łączącego te dwa produkty, a następnie rozszerzającego jego funkcjonalność. Ale potem firma skorygowała swoje plany, wybierając opcję zestawu narzędzi. Obecna polityka technologiczna w zakresie zarządzania IT została wprowadzona w 2005 roku, kiedy ogłoszono plany stworzenia rodziny oprogramowania System Center. Pakiet obejmuje obecnie osiem rozwiązań obejmujących szeroki zakres zadań związanych z zarządzaniem IT (z wyłączeniem zarządzania sprzętem; Service Manager do zarządzania usługami IT jest również w wersji beta).

W tym miejscu należy podkreślić, że na tym rynku Microsoft, rozwijając rodzinę System Center, wdraża jakościowo odmienny (w porównaniu do tych samych HP i IBM) paradygmat, pozycjonując się jako dostawca platformy Windows i ogromnej gamy infrastruktury oraz rozwiązania w zakresie oprogramowania aplikacyjnego, które działają na tej platformie i wchodzą z nią w interakcję. Mówiąc obrazowo, System Center zaczęto budować wokół wiedzy zgromadzonej przez korporację na temat procesów zarządzania i utrzymania jej głównych produktów. Jednak rosnąca złożoność relacji pomiędzy różnymi produktami i rozwiązaniami, zarówno samego Microsoftu, jak i innych producentów, wymagała opracowania nowego modelu. Opiera się na procesach metodologii Microsoft Operations Framework, podstawowa wiedza o infrastrukturze Microsoft oraz możliwość łatwej rozbudowy systemu o nową wiedzę o produktach, rozwiązaniach i ich relacjach, dostarczaną w formie „pakietów zarządczych”.

Biorąc pod uwagę ogromny ekosystem partnerów Microsoft - twórców oprogramowania i proaktywną pozycję samej korporacji, pakiety administracyjne zaczęły szybko pojawiać się zarówno dla większości komponentów sprzętowych (począwszy od poziomu chipsetu, komputera, urządzeń sieciowych itp.), jak i dla narzędzi programowych i rozwiązania. Jednocześnie wsparcie dla środowisk heterogenicznych zapewniane jest poprzez szeroką współpracę branżową z niezależnymi dostawcami oprogramowania (przykładami są umowy strategiczne z firmami Sun i Novell). Ale ta specyfika Microsoftu ma swoje zalety: w szczególności jest to wysoki poziom integracji narzędzi do zarządzania między sobą, z systemem operacyjnym i z rozwiązaniami aplikacyjnymi (przypomnijmy trend rozwoju infrastruktury IT w kierunku monoplatformy) . Jednocześnie w ramach swojej platformy oprogramowania firma może wdrożyć ideę zarządzania systemami z naciskiem na usługi końcowe. Niewątpliwymi zaletami Microsoftu jest także tradycyjne wsparcie dla całego spektrum klientów (od małych do dużych) oraz obecność ogromnego ekosystemu partnerskiego.

Wirtualizacja jako kluczowa technologia infrastruktury

Od połowy tej dekady głównym trendem w rozwoju infrastruktury informatycznej przedsiębiorstw, a w szczególności centrów danych, stało się wykorzystanie technologii wirtualizacji. Teraz możemy śmiało powiedzieć (na podstawie opinii klientów, danych analityków i ocen ekspertów), że rok 2008 był punktem zwrotnym w promocji technologii wirtualizacji serwerów w branży Rynek rosyjski. Nawet kryzys nie mógł przeszkodzić w powszechnym wykorzystaniu tych funduszy; Co więcej, to właśnie trudne warunki ekonomiczne w pewnym stopniu stanowiły dla klientów dodatkową zachętę do wdrożenia wirtualizacji, gdyż umożliwiły one realną redukcję kosztów w dość krótkim czasie.

Należy jednak podkreślić, że wciąż jesteśmy w pierwszej fazie powszechnego rozwoju wirtualizacji, a klienci stają przed nie tylko korzyściami płynącymi z jej stosowania, ale także koniecznością rozwiązywania nowych, czasem zupełnie nieoczekiwanych problemów.

Raport IDC zatytułowany From Server Virtualization to Business Infrastructure Virtualization, opublikowany tej jesieni, przedstawia wizję firmy dotyczącą rynku maszyn wirtualnych jako całości (rysunek 2). Wydaje się, że nasz kraj znajduje się obecnie w początkowej fazie szerszego wykorzystania wirtualizacji serwerów. Z podsumowania opinii klientów wynika, że ​​główne korzyści z wdrożenia dla nich tych narzędzi to zmniejszenie kosztów kapitałowych i operacyjnych, uproszczenie struktury IT, skrócenie czasu reakcji na zgłoszenia, zwiększenie ciągłości działania, możliwość wykorzystania nowych zasad mocy obliczeniowej planowanie i nowe modele alokacji kosztów.

Warto zaznaczyć, że już w 2008 roku nastąpiły radykalne zmiany w obozie dostawców narzędzi wirtualizacyjnych, które zaczęły wywierać potężny wpływ na rozwój całego tego rynku. Istota sprawy polega na tym, że do tego czasu dominującą, wręcz monopolistyczną pozycję w tym obszarze zajmowało VMware. Jednak sytuacja zmieniła się diametralnie w ciągu ostatnich dwóch, trzech lat w wyniku pojawienia się nowych, poważnych graczy na tym rynku (Citrix, Novell, Red Hat, Oracle, Sun, IBM) na czele z Microsoftem z nowym hypervisorem Hyper- V.

Ogólny obraz stanu rzeczy w zakresie narzędzi wirtualizacyjnych wygląda mniej więcej następująco.

Podczas jesiennej konferencji Gartner Symposium/ITxpo zauważono, że pomimo dużej ilości rozmów na temat wirtualizacji, technologia ta nie jest jeszcze tak szeroko stosowana, jak mogłoby się wydawać. Ale jej popularność rośnie. Gartner szacuje, że tylko 16% światowego obciążenia serwerów x86 jest obecnie obsługiwane przez maszyny wirtualne, ale w ciągu trzech lat udział ten wzrośnie do 50%. Warto podkreślić, że choć wielu uważa, że ​​technologie wirtualizacyjne skierowane są do dużych przedsiębiorstw i centrów danych, to liczba wdrożonych maszyn wirtualnych na świecie najszybciej rośnie obecnie w segmencie małych przedsiębiorstw.

Rynek wirtualizacji jest na etapie rozwoju i restrukturyzacji. Dlatego ocena tamtejszej sytuacji przy użyciu tradycyjnych wskaźników, takich jak udział w rynku w ujęciu pieniężnym i zainstalowana baza produktów, często nie pozwala na prawidłowe zrozumienie tego, co się dzieje. W każdym przypadku ocena powinna być przeprowadzona na podstawie analizy dynamiki rozwoju technologii, zrozumienia uwarunkowań technologicznych i strategia marketingowa dostawcy.

Ważne jest, że od początku 2008 roku widać wyraźną tendencję do „zanikania” rynku hypervisorów i przesuwania się tych rozwiązań do kategorii produktów darmowych. Proces ten był w dużej mierze spowodowany wejściem na rynek wiodących dostawców platform (przede wszystkim Microsoft), którzy pozycjonują narzędzia maszyn wirtualnych jako rozwiązania pomocnicze w promocji swoich głównych produktów komercyjnych (w tym narzędzi do zarządzania środowiskiem komputerowym).

Wyniki różnych ankiet przeprowadzonych wśród rosyjskich klientów pokazują, że rozpowszechnienie technologii wirtualizacyjnych firm VMware i Microsoft jest obecnie w przybliżeniu na tym samym poziomie (ich udziały wynoszą 40-50%). Ale tak naprawdę daje to obraz jedynie „pierwsze przybliżenie”, ponieważ nie uwzględnia „głębokości penetracji” tych narzędzi w infrastrukturę informatyczną przedsiębiorstw (stosunek serwerów wirtualnych do fizycznych, wykorzystanie wirtualizacja dla aplikacji o znaczeniu krytycznym, wykorzystanie możliwości równoważenia obciążenia i zwiększona odporność na awarie).

Narzędzia wirtualizacyjne „nowych” graczy (Microsoft, Citrix itp.) pojawiły się na rynku stosunkowo niedawno i są raczej w fazie testów przez klientów w trybie projektu pilotażowego. Przemysł dopiero teraz zaczyna gromadzić masę krytyczną doświadczenia niezbędną do ich szerszego stosowania. Jednocześnie istnieje również pewien czynnik ograniczający: pomysły klientów dotyczące produktów znacznie pozostają w tyle za procesem rzeczywistego rozwoju możliwości tych narzędzi.

Choć pokrycie infrastruktury serwerowej wirtualizacją jest jeszcze bardzo dalekie od 100%, to i tak śmiało możemy stwierdzić, że branża opanowała proces przenoszenia serwerów fizycznych do środowiska wirtualnego i nie stwarza żadnych szczególnych problemów. Ale to dopiero teraz nadchodzi Nowa scena wykorzystanie wirtualizacji związane z tworzeniem i zarządzaniem dynamiczną wirtualno-fizyczną infrastrukturą informatyczną. Analitycy są zgodni co do tego, że obawy klientów i konkurencja dostawców przesuwają się do przestrzeni zarządzania IT.

Mówiąc o tym problemie, należy zwrócić uwagę na kilka kierunków rozwoju sytuacji. Jednym z nich jest konkurencja pomiędzy dwiema grupami dostawców IT – dostawcami hypervisorów i niezależnymi dostawcami usług zarządzania (np. HP, CA). Każdy z nich ma swoje zalety: pierwszy charakteryzuje się wysokim poziomem integracji systemów oprogramowania, drugi koncentruje się na wspieraniu środowisk heterogenicznych i, co może być o wiele ważniejsze, dostępności pełne spektrum narzędzia (w tym m.in. zarządzanie konfiguracją i zmianami). Zwróćmy tutaj uwagę na szczególną pozycję Microsoftu, który może pozycjonować się na obu stanowiskach (ale oczywiście z silnym powiązaniem z Windows).

Pomimo tego, że hypervisory zeszły już na dalszy plan w całym kompleksie oprogramowania do wirtualizacji i że na tym rynku działa dość duża grupa dostawców, w tym wszyscy światowi liderzy IT, nadal należy zauważyć, że główną linią rozwoju sytuacji tutaj jest określany przez konkurs pomiędzy VMware i Microsoftem. (Jednak oczywiście ważną rolę odgrywają także inni dostawcy, których pozycję charakteryzuje koncentracja na użytkowaniu otwarte fundusze wirtualizacja.)

Istota konfrontacji VMware i Microsoftu polega na zasadniczo odmiennej wizji miejsca wirtualizacji w całym kompleksie korporacyjnej infrastruktury IT.

VMware sformułowało swój cel strategiczny półtora roku temu – stworzenie nowej warstwy operacyjnej zapewniającej funkcjonowanie maszyn wirtualnych w rozproszonym środowisku sprzętowym. Zakłada się, że rola tradycyjnych systemów operacyjnych w takim systemie będzie stopniowo maleć, aż do ich całkowitego zaniku (por. PC Week/RE nr 45/2009, http://www.pcweek.ru/themes/detail.php? ID= 121133). Oczywiste jest, że takie perspektywy nie są zbyt zachęcające dla dostawców systemów operacyjnych.

Z kolei Microsoft postrzega wirtualizację jako ewolucję systemów operacyjnych. To właśnie w tym kontekście powstaje Hyper-V, który początkowo uważany jest za dodatkowy komponent Windows Server (trzeba jednak podkreślić, że obsługuje różne systemy operacyjne jako goście).

Dylemat ten (hypervisor jako niezależne środowisko operacyjne czy jako komponent systemu operacyjnego) ma wiele aspektów technologicznych i marketingowych, które są ważne również dla twórców aplikacji i zarządzania: na którą linię strategiczną powinni zdecydować się? Ogólna teoria mówi, że najbardziej stabilnym modelem systemów jest schemat trójwarstwowy (w tym przypadku sprzęt – system operacyjny – aplikacje). Biorąc to pod uwagę, można przyjąć, że rozdzielenie środowiska wykonawczego oprogramowania na dwie niezależne warstwy jest mało prawdopodobne. I w tej sytuacji opcja Microsoftu wydaje się bardziej realna, zwłaszcza biorąc pod uwagę konserwatyzm rynku IT, na którym pomimo swojej innowacyjności, jednym z kluczowych czynników rozwoju jest konieczność wspierania starszych systemów (tzw. ochrona inwestycji i zapewnienie ciągłości działania).

Należy zwrócić uwagę, że analitycy rynku wirtualizacji wyraźnie unikają prognozowania rozwoju sytuacji konkurencyjnej w tym obszarze. Ale wszyscy są zgodni co do jednego: wykorzystanie wirtualizacji (pod względem zasięgu i głębokości penetracji) będzie niezmiennie rosło, a rozwój technologii nadal będzie podążał ścieżką ewolucyjną.

Na posiedzeniu samorządu regionalnego, które odbyło się pod koniec grudnia, zostało ono przyjęte.

Plan w szczególności przewiduje przekazanie do działu technologii informatycznych regionu autonomicznego do konserwacji sprzętu serwerowego i przełączającego, zautomatyzowanych stacji roboczych i systemów informatycznych wykorzystywanych w agencjach rządowych i instytucjach regionu. Jednocześnie wszystkie zautomatyzowane stacje robocze organów rządowych zostaną przeniesione do jednej domeny sieci korporacyjnej władz regionalnych.

Oczekuje się również, że departament będzie centralnie realizował prace mające na celu zapewnienie bezpieczeństwa informacji systemów informatycznych, organizację świadczenia usług telefonii stacjonarnej i komórkowej komunikacja telefoniczna władz i instytucji, zapewniają funkcjonowanie jednolitej sieci korporacyjnej.

Środki przewidziane na te cele w ramach programów resortowych obwodu powinny zostać skonsolidowane w programie „Towarzystwo Informacyjne Chanty-Mansyjskiego Okręgu Autonomicznego Ugry na lata 2018-2025 i okres do 2030 roku”.

Zgodnie z dokumentem w 2018 roku w organach wykonawczych władza państwowa W Okręgu Autonomicznym i podległych mu instytucjach planowane jest wprowadzenie systemu informacji księgowej „Cloud Accounting” (który będzie obejmował funkcjonalność zarządzania zapasami, zakupami, rachunkowość zarządcza itd).

W trakcie realizacji działań planu należy optymalizować liczbę pracowników zajmujących się serwisem sprzętu komputerowego oraz utrzymaniem systemów (zasobów) informatycznych organów i instytucji rządowych.

Przewiduje się także przygotowanie propozycji podobnych działań w stosunku do samorządów lokalnych.

Nad realizacją planu będzie czuwał Pierwszy Zastępca Gubernatora Okręgu Autonomicznego Giennadij Bukhtin.

„Plan działania projektu jest zsynchronizowany z zadaniami określonymi w [dokumentach regionalnych] koncepcji Lean Region”, program państwowy„Społeczeństwo informacyjne”. Działania te z pewnością przyczynią się do cyfryzacji gospodarki” – komentuje zatwierdzony dokument wojewoda Ugry. Natalia Komarowa.

Zdaniem dyrektora działu technologii informatycznych Ugry Paweł Ciporina centralizacja uprawnień zakupowych w obszarze ICT umożliwi wdrożenie jednolitych podejść i wymagań dotyczących ich realizacji, w tym środków bezpieczeństwa informacji, zwiększy efektywność podejmowania decyzji zarządczych, co przyczyni się do cyfryzacji gospodarki autonomicznej Okrug, a także pozwoli na optymalizację kosztów budżetu powiatu na zakupy sprzętu i tworzenie systemów informatycznych.

Według Tsiporina w ujednoliconym rejestrze systemów informatycznych Ugry zarejestrowanych jest ponad 900 systemów informatycznych, z których wiele ma zduplikowaną funkcjonalność. Jego zdaniem centralizacja infrastruktury zapewni zgodność z jednolitymi zasadami tworzenia i funkcjonowania państwowych systemów informacyjnych Ugry, spełni wymogi legislacyjne, zoptymalizuje strukturę organów rządowych i podległych im instytucji oraz zwiększy wydajność pracy pracowników. oraz pracownicy instytucji rządowych zajmujących się usługami ICT. „Warto zaznaczyć, że istniejące kontrakty w sektorze ICT również będą wspierane na wcześniej zawartych warunkach, co nie pogorszy warunków ich realizacji dla kontrahentów” – poinformował portal.

Zdaniem Ministra Informatyzacji, Komunikacji i Spraw Otwartego Zarządzania Regionu Tula Jarosława Rakowa centralizacja zarządzania infrastrukturą IT może znacząco obniżyć koszty i zwiększyć efektywność podejmowania decyzji zarządczych w tym obszarze. Zgodnie z doświadczeniami regionu centralizacja zamówień na poziomie ministerstwa (98–99% wszystkich zamówień agencji rządowych i ich instytucji dotyczących IT przechodzi przez centrum technologii informatycznych regionu Tula) pozwala na obniżenie cen o 18–30% . „Liczba obsługiwanych systemów informatycznych, z których korzystają władze, została zmniejszona z 500 do 191, co znacznie upraszcza ich administrację, a także pozwala na znaczne oszczędności” – powiedział Rakov portalowi.

Pod koniec maja agencja komunikacja marketingowa Cnews Conferences zorganizowała konferencję „Optymalizacja infrastruktury IT: innowacje i trendy”.

W rozwoju infrastruktury informatycznej rosyjskich przedsiębiorstw i organizacji istnieje oczywiście specyfika branżowa i regionalna. Jednocześnie takie trendy jak centralizacja infrastruktury IT, przejście do szerszego wykorzystania outsourcingu IT, szereg trendów technicznych (przejście na urządzenia mobilne, wirtualizacja, dystrybucja elektroniczne zarządzanie dokumentacją itp.) są nieodłączne dla prawie wszystkich sektorów rosyjskiej gospodarki.

Prawie wszyscy prelegenci w ten czy inny sposób wypowiadali się na temat centralizacji infrastruktury IT. Do tej pory infrastruktura informatyczna wielu przedsiębiorstw i banków to „zoo” licznych i różnorodnych programów i baz danych, serwerów, sieci itp. Jednak aby przekształcenie tego „zoo” w scentralizowaną infrastrukturę IT zakończyło się sukcesem, zauważono, że przedsiębiorstwo musi zaktualizować/opracować własne standardy dla wszystkich głównych elementów infrastruktury IT Dmitrij Emelin, Zastępca Dyrektora Działu Wsparcia Informatycznego Alliance Insurance Company. W spółce tej w ramach optymalizacji infrastruktury informatycznej zaktualizowano standardy dotyczące oprogramowania i sprzętu, regulaminy świadczenia podstawowych usług informatycznych i na tej podstawie wdrożono szereg projektów informatycznych: wirtualizację serwerów, w wyniku których obciążenie sprzętu wzrosło ponad dwukrotnie i zwolniono około 500 serwerów, wprowadzenie jednego (zamiast kilku) systemu monitorowania - skrócono czas reakcji na incydenty, zmodernizowano system pocztowy i sieć korporacyjną, zwiększając ich produktywność i bezpieczeństwa, zakończono kilka kolejnych projektów. Ale wraz z takimi projektami wdrażano także projekty strategiczne z dużym udziałem IT, mające na celu centralizację procesów biznesowych i utworzenie centrum operacyjnego.

Prawdopodobnie najbardziej uderzającym przykładem centralizacji infrastruktury IT w branży finansowej jest Sbierbank Rosji. Pod koniec ubiegłego roku w Południowym Porcie Rzecznym uruchomiono centrum megadanych Sbierbanku, o czym mówiono na konferencji Cnews Siergiej Pegasow, dyrektor zarządzający bloku IT Sbierbanku Rosji. To pierwsze centrum przetwarzania danych w branży finansowej w Rosji certyfikowane na poziomie Tier III klasyfikacji Uptime Institute. W pomieszczeniach komputerowych znajduje się ponad 2000 szaf serwerowych z całkowitą powierzchnią 5000 mkw. metrów. Gwarantowany przestój w ciągu roku nie dłuższy niż 1,6 godziny, wskaźnik odporności na awarie - 99,982%.

To centrum megadanych, wraz z podobnym centrum megadanych w Skołkowie, powinno stanowić podstawę ujednoliconej infrastruktury IT banku, zastępując dziesiątki regionalnych centrów danych. Jednocześnie całkowity koszt posiadania infrastruktury IT powinien zostać obniżony do 500 milionów dolarów rocznie, począwszy od 2015 roku.

Duże centra danych wymagają systemów pamięci masowej o wyjątkowej wydajności. Dokładnie to najnowszego systemu z EMC zaprezentowanego na konferencji Denis Serow, dyrektor ds. doradztwa technologicznego w EMC. Systemem tym mogą zainteresować się banki przetwarzające petabajty danych (1 petabajt – 1024 terabajty, 1 terabajt – 1024 gigabajty).

Dyskusja nad wystąpieniami okazała się ożywiona Michaela Hurgesa, dyrektor ds. rozwoju biznesu w ServiceDirect oraz Andriej Wodołazski, kierownik działu Administracja systemu NPO Nauka, w sprawie optymalizacji kosztów drukowania dokumentów. Tutaj także możliwa jest centralizacja: zamiast wielu małych drukarek, które są używane w domu, użyj wydajnych urządzeń wielofunkcyjnych (MFP) specjalnie zaprojektowanych dla organizacji. Innym sposobem jest wynajęcie outsourcingu. W takim przypadku możliwe są różne opcje, w tym leasing sprzętu poligraficznego. W trakcie dyskusji jako największe tego typu projekty wymieniono Alfa Bank i Xerox.

Firmy telekomunikacyjne, w tym wiodące operatorzy komórkowi, aktywnie wkraczają na rynek outsourcingu, oferując zarówno usługi komunikacyjne, jak i IT.

Na konferencji Cnews Denis Irz, dyrektor działu nowych technologii i projektów oddziału kapitałowego Megafon, opowiedział o usługach swojej firmy, które świadczy ona klientom korporacyjnym na zasadzie outsourcingu.

Główną ofertą Megafonu są zasoby i usługi data center podłączone do jego sieci transportowej, co pozwala na efektywniejsze (niż przy podłączeniu do cudzej sieci) świadczenie bezpieczeństwo informacji sprzęt, bazy danych i obsługa klienta. Zasoby i usługi data center świadczone są zarówno w formie regularnej, jak i w formie chmury prywatnej (Private Cloud).

Najbardziej złożonym, ale i najbardziej obiecującym rodzajem outsourcingu jest realizacja procesu biznesowego w formie usługi zewnętrznej. Megafon oferuje procesy biznesowe „Cyfryzacja” jako usługę (tłumaczenie dokumentów z papieru na widok elektroniczny), „Telesprzedaż” i Obsługa Klienta (odpowiednio promocja i sprzedaż usług dla klientów oraz organizacja I linii pomocy przez operatorów Synterra Call Center).

Prezentacje raportów można wkrótce znaleźć na cnews.ru w dziale

Dziś infrastruktura IT w Firmy rosyjskie dość skomplikowane. Ich utrzymanie jest kosztowne, są fragmentaryczne i niewystarczająco wydajne. Jednym ze sposobów rozwiązania tych problemów jest konsolidacja zasobów IT. Oprócz zmniejszenia kosztów konserwacji i zwiększenia łatwości zarządzania konsolidacja ma inne zalety. Jednak w niektórych przypadkach rozwiązania zdecentralizowane są bardziej poprawne. Było to poruszane na forum" Technologia informacyjna dla osiągnięcia celów strategicznych organizacji”, organizowane przez firmę CROC.

Z reguły główną pozycją wydatków w budżetach IT przedsiębiorstw są koszty wsparcia infrastruktury i sprzętu IT. Badanie przeprowadzone wśród około 600 menedżerów IT z różnych krajów Organizacje rosyjskie, przeprowadzone w ubiegłym roku przez ekspertów CROC, po raz kolejny to potwierdziło. Oczywiście wdrożenie nowych systemów informatycznych wymaga dużych nakładów, jednak środki te przeznaczane są głównie na wsparcie istniejącej gospodarki informatycznej. To samo badanie wykazało, że dla rosyjskich firm szczególnie ważne są scentralizowane systemy zarządzania infrastrukturą IT. Wynik ten wskazuje, że dziś rosyjskie firmy wdrożyły rozwiązania o dość dużej złożoności. Powstaje zadanie priorytetowe – jakoś uporać się ze złożonością systemu informatycznego. Mówiono o tym na forum „Technologie informacyjne w osiąganiu celów strategicznych organizacji” zorganizowanym przez CROC.

Jednym ze sposobów rozwiązania tego problemu jest konsolidacja systemów informatycznych. Eksperci wyróżniają trzy fazy, czyli trzy poziomy konsolidacji. Pierwszy to konsolidacja platform sprzętowych, drugi to konsolidacja na poziomie oprogramowania i wreszcie trzeci poziom to poziom aplikacji. Wszystkie te procesy prowadzą do tego, że pewnego dnia użytkowników nie będzie obchodziło, gdzie fizycznie znajdują się określone zasoby, a działy IT firm nie będą przejmować się, gdzie fizycznie znajdują się ich użytkownicy.

Ale to odległa przyszłość. Jak dotąd zdecydowana większość organizacji zarówno rosyjskich, jak i zachodnich dopiero wchodzi w pierwszą fazę. IDC zbadało główne powody konsolidacji infrastruktury IT przedsiębiorstwa (patrz rysunek). Respondenci wskazali redukcję kosztów jako główny czynnik motywujący przy konsolidacji infrastruktury. Jako powody podano także zwiększoną produktywność i łatwość zarządzania. Kolejnym czynnikiem jest wykorzystanie wydajnych, nowoczesnych platform przy konsolidacji infrastruktury IT przedsiębiorstwa.

Argumenty z IT

Są to przepisy ogólne, ale można je uszczegółowić. Zdaniem Rusłana Zaedinowa, zastępcy dyrektora działu systemów komputerowych w CROC, zarówno działy IT, jak i piony biznesowe spółki mają argumenty za konsolidacją. Ruslan Zaedinov mówi: „Klienci uznają, że skonsolidowaną strukturą można lepiej zarządzać, łatwiej jest zbudować system monitorowania i kontroli wykorzystywanego sprzętu i oprogramowania, jeśli jest on przynajmniej zlokalizowany w jednym miejscu, a jeśli jest też jednorodny, to jest reprezentuje pojedynczą strukturę, wówczas zadanie monitorowania i zarządzania tą strukturą jest jeszcze łatwiejsze do rozwiązania. Ponadto skonsolidowana struktura ma zwykle jedną jasną ścieżkę rozwoju, a nie kilka niezależnych kierunków ruchu, które są słabo ze sobą spójne.

Kolejnym, już dość tradycyjnym, argumentem przemawiającym za konsolidacją ze strony działu IT firmy jest zwiększenie efektywności wewnętrznej i możliwości optymalnego wykorzystania zasobów IT. „Zbadaliśmy, jak produktywnie sami korzystamy z infrastruktury IT, przeanalizowaliśmy tak pozornie elementarne rzeczy, jak obciążenie procesorów, infrastruktury serwerów i wykorzystanie miejsca na dysku” – mówi Ruslan Zaedinov. „Okazało się na przykład, że nasze miejsce na dysku jest stale pusty. W praktyce jest to inwestycja w pustkę, w perspektywy rozwoju, których nigdy nie zrealizujemy. A efektem tych badań była rzeczywista transformacja infrastruktury IT naszej firmy, w szczególności przejście na wykorzystanie skonsolidowanego magazynu. Dodatkowo skonsolidowaliśmy serwery do niektórych zadań produkcyjnych (np. do tworzenia oprogramowania), co znacznie zwiększyło efektywność wykorzystania mocy procesora, a tym samym obniżyło nasze koszty.

Argumenty z biznesu

Zazwyczaj jednostki biznesowe firmy nie zagłębiają się w szczegóły organizacji procesów IT, więc wszystkie wymienione powyżej argumenty nic dla nich nie znaczą. Z reguły mają własną miarę efektywności IT jako narzędzia. Jednak po tej stronie istnieją istotne argumenty przemawiające za konsolidacją infrastruktury IT.

Przede wszystkim mamy na myśli optymalizację inwestycji w IT, optymalizację inwestycji początkowych w tworzenie infrastruktury IT oraz optymalizację inwestycji w eksploatację tej infrastruktury IT. Częściowo wszystkie te argumenty są ponownie związane z lepszą obsługą. Skonsolidowana infrastruktura IT jest lepiej zarządzana, co skutkuje mniejszym zapotrzebowaniem na personel. Z drugiej strony zmniejszają się koszty z tym związane: skonsolidowana infrastruktura IT zajmuje mniej miejsca, a zatem wymaga mniejszej powierzchni i niższych kosztów oświetlenia, ogrzewania i klimatyzacji tych pomieszczeń.

Dodatkowo skonsolidowana infrastruktura informatyczna umożliwia uporządkowanie wewnętrznego billingu firmy. Nie można powiedzieć, że to zadanie jest obecnie istotne dla rosyjskich przedsiębiorstw. Jednak niewątpliwie wkrótce nabierze to poważnego znaczenia. Faktem jest, że koszt infrastruktury IT stopniowo rośnie na tyle, że zaczyna bezpośrednio wpływać na koszty produkcji i trzeba to brać pod uwagę. Informatyka w coraz większym stopniu przekształca się z narzędzia wspierającego biznes firmy w część podstawowej działalności firmy. Proces ten postępuje powoli, ale nadal ma miejsce. Dlatego należy bardziej szczegółowo i wyraźnie uwzględnić udział kosztów IT w realizacji konkretnego procesu w firmie. Tutaj znowu scentralizowana architektura zapewnia oczywiste korzyści.

Wady konsolidacji

Jednak pomimo wszystkich swoich zalet konsolidacja ma również wady. Rozproszona infrastruktura IT ma też swoje zalety.
Przede wszystkim infrastruktura rozproszona jest istotna dla organizacji o dużym zasięgu regionalnym. Nikt nie będzie twierdził, że informacje należy przetwarzać w miejscu ich otrzymania. Zazwyczaj skonsolidowane centrum danych nie pozwala na śledzenie absolutnie wszystkich procesów biznesowych i wydatków. Analizuje dane na wysokim poziomie, które są istotne dla centralnego zarządzania. „Rozproszona infrastruktura jest wygodna do prowadzenia szczegółowej dokumentacji” – mówi Ruslan Zaedinov. „Jest to konieczne agencje rządowe którzy zajmują się sprawami społecznymi, koncerny naftowe, dla całego przemysłu wydobywczego, dla sektora energetycznego.”

Drugą zaletą infrastruktury rozproszonej jest to, że zapewnia ona centrum danych odporność na wypadki lub katastrofy spowodowane przez człowieka. Skonsolidowana infrastruktura jest zawsze mniej bezpieczna niż rozproszona. W tym sensie architektura rozproszona nie oznacza, że ​​jej różne komponenty mają na celu rozwiązywanie różnych problemów przedsiębiorstwa. Komponenty architektury rozproszonej mogą tworzyć wzajemne kopie zapasowe, równoważyć obciążenie i wykonywać podobne zadania. Infrastruktura rozproszona pozwala na przechowywanie danych w co najmniej dwóch centrach danych, co pozwala na utworzenie ich kopii zapasowej i posiadanie trwałej kopii wszystkich danych korporacyjnych Twojej firmy na wypadek awarii. „Mogą jednak istnieć inne powody, dla których warto budować rozproszone centra przetwarzania danych” – zauważa Ruslan Zaedinov „Na przykład jeden z naszych klientów, budując jedno centrum przetwarzania danych dla wszystkich swoich procesów biznesowych, stanął przed następującą sytuacją: miasto. w którym to „Centrum danych po prostu nie jest w stanie zapewnić wystarczającej ilości energii elektrycznej dla tego centrum. W rezultacie firma buduje centrum zapasowe, a część procesów biznesowych jest równoważona pomiędzy centrum głównym i centrum zapasowym”.

Podejmowanie decyzji

Według Borisa Germaszewa, menedżera ds. klientów korporacyjnych w EMC, wiele rosyjskich firm przechodzi jednocześnie procesy centralizacji i decentralizacji. Zazwyczaj firmy znajdują jakiś kompromis pomiędzy dystrybucją a konsolidacją.

Standardowe podejście do przetwarzania danych jest takie, że dane powinny trafiać do jednego systemu informacyjnego możliwie najbliżej miejsca, w którym zostały utworzone. Jeśli mówimy o firmie, której dane powstają w regionach, to właśnie tam muszą przejść pierwsze przetwarzanie i od razu być dostępne w innych miejscach, innych ośrodkach, gdzie poddawane są głębszemu przetwarzaniu. „I tu mamy do czynienia z faktem, że firmy często nie mają jasnej wizji tego, jakie informacje należy przesłać, gdzie w celu późniejszego przetworzenia” – zauważa Borys Germashev.

Tego typu problem nie zawsze jest bezpośrednio związany z kwestiami IT. Zagadnienie konsolidacji niektórych usług IT jest ściśle związane z istnieniem w firmie jednego punktu podejmowania decyzji IT. „Na przykład w wielu firmach nadal nie ma jasnego zrozumienia, w jaki sposób należy podejmować decyzje w obszarze IT” – zauważa Boris Germashev. „Czy CIO powinien podejmować decyzje w zakresie strategii rozwoju IT? Jak duży wpływ biznes powinien mieć na IT? i jest oceniany. Czy taki wpływ działu IT jest pozytywny. Jak wolne może być kierownictwo regionalnego działu IT w podejmowaniu decyzji? Kiedy decyzje muszą być podejmowane wspólnie? Często bardzo trudno jest podjąć decyzję i wybrać podejście, które zapewni najlepsze wyniki w przyszłości.”

Oczywiście, niezależnie od tego, jak rozproszony jest system, odpowiedzialność musi być nadal scentralizowana; musi istnieć menedżer odpowiedzialny za rozwiązania IT. Według jednego punktu widzenia takie jedno centrum podejmowania takich decyzji – CIO firmy – musi koniecznie wyznaczać strategię IT zarówno dla centrali, jak i oddziałów terenowych, zarówno dla pojedynczego centrum przetwarzania danych, jak i dla systemu rozproszonego. Ten punkt widzenia podziela większość ekspertów. Leonid Ukhlinov, szef wydziału sprzętu specjalnego i wyposażenia technicznego Federalnej Służby Celnej Federacji Rosyjskiej, uważa, że ​​przy podejmowaniu takich decyzji najważniejsze jest osiągnięcie równowagi pomiędzy wymaganiami IT i biznesowymi. Do tego jego zdaniem konieczna jest centralizacja podejmowania decyzji w obszarze IT. „Jest to możliwe tylko wtedy, gdy decydentem IT będzie członek zarządu firmy” – mówi Leonid Ukhlinov.

Zdarza się jednak, że decyzje lokalnych menedżerów IT okazują się lepsze niż te scentralizowane. Tak więc, według Borysa Germaszewa, w działalności dużych Rosyjskie korporacje Było kilka przykładów, gdzie wspólne podejście do IT, umożliwiające regionalnym działom IT firm posiadanie własnej wizji IT i korzystanie z innych rozwiązań niż w centrum, przyniosło nie negatywne, ale pozytywne rezultaty. Okazuje się, że przyjęty w centrum standard na dłuższą metę okazuje się niezbyt poprawny. Oznacza to, że istnieje doświadczenie, gdy decentralizacja przy podejmowaniu decyzji IT prowadzi do bardzo dobrych wyników.

Ogólnie dyskusja na konferencji pokazała, że ​​architektura może być scentralizowana lub zdecentralizowana, nie są to podejścia wykluczające się. Oczywiście kwestia, które usługi IT należy skonsolidować, a które logiczniej wdrożyć jako usługi rozproszone, jest dość złożone. Pod jakimi wymaganiami system informatyczny powinien skłaniać się ku konsolidacji, a kiedy powinien pozostać rozproszony? Trudno tu podać jakieś konkretne zalecenia. Niemniej jednak procesy centralizacyjne postępują i nie ma od nich ucieczki. „Można długo szukać kompromisu pomiędzy rozproszoną i scentralizowaną infrastrukturą IT, ale nadal ogólnym trendem jest centralizacja i konsolidacja zarówno platform obliczeniowych, jak i samych obliczeń, czyli usług IT” – podsumowuje Ruslan Zaedinov.

Przenoszenie wszystkich banków regionalnych do jednej platformy informatycznej rozpoczęło się w 2011 roku i zakończyło się latem 2015 roku. Jego celami były: skrócenie czasu potrzebnego na wprowadzenie produktów bankowych na rynek, stworzenie jakościowo nowych warunków dla dalszej centralizacji i unifikacji funkcji operacyjnych i biznesowych oraz zmniejszenie kosztów IT Sbierbanku.

Ocena Germana Grefa: Gdy tylko zbudowaliśmy nasze super centrum danych, doszliśmy do wniosku, że jesteśmy absolutnie niekonkurencyjni

Wyniki programu centralizacji

Ujednolicona platforma informatyczna

Przed wdrożeniem programu każdy makroregion korzystał z własnego zestawu głównych platform bankowych różnych deweloperów, było ich siedem. W ramach „Centralizacji 2.0” w Sbierbanku utworzono scentralizowaną platformę informatyczną: „zoo” zautomatyzowanych systemów banków terytorialnych zostało zastąpione szeregiem zunifikowanych systemów.

W ramach projektu powstały w szczególności następujące systemy:

  • Zautomatyzowany system „Oddział-Sbierbank” (AS FS). Zatrudnia ponad 80 tysięcy użytkowników we wszystkich bankach terytorialnych Sbierbanku.
  • Ujednolicony system korporacyjny (UCS). W momencie zakończenia programu zawiera dane z 2 milionów rachunków osoby prawne, 400 tys. umów kredytowych dla klientów prawnych, 250 umów kredytowych dla mikroprzedsiębiorstw. System przetwarza dziennie do 7 milionów dokumentów rozliczeniowych dla rachunków osób prawnych.
  • Ujednolicony portfel kredytów dla klientów indywidualnych. Przechowuje dane z ponad 60 milionów umów, z czego 15 milionów umów jest ważnych. Za pomocą systemu dziennie realizowanych jest około 80 tys. wypłat kredytów i 600 tys. spłat kredytów.
  • Pojedyncze centrum przetwarzania depozytów osoby(JAKO eDPC). Zawiera dane z 630 milionów kont, z czego 425 milionów kont jest aktywnych. Dziennie w systemie przeprowadza się około 290 milionów transakcji na rachunkach.
  • Ujednolicona usługa płatnicza (AS UPS) do dokonywania płatności rozliczeniowych. Współpracuje z ponad 100 tysiącami dostawców różnych usług ( usługi komunalne, przedszkola, przedsiębiorstwa energetyczne itp.), dla których dziennie dokonuje się około 6 mln wpłat.
  • Unified Cash Center (UCC), z którego korzysta około 400 centrów gotówkowych Sberbank w całym kraju.

Wszystkie systemy zlokalizowane są w jednym centrum danych „Port Południowy”. Oddziały Sberbanku współpracują z nimi za pośrednictwem cienkiego klienta.

Oprócz centralizacji infrastruktury informatycznej banków regionalnych, Sberbank ujednolicił także i ujednolicił procesy biznesowe.

Zakres programu

Program centralizacji w Sbierbanku nazywany jest bezprecedensowym w swojej skali. Według wiceprezesa i głównego architekta IT Sbierbanku Andrieja Chłyzowa w jego ramach przeprowadzono ponad 700 dużych wdrożeń.

Utworzeniem scentralizowanej platformy informatycznej zajął się Sberbank Technologies, a w realizację programu zaangażowanych było łącznie ponad 32 tys. osób.

Jeśli chodzi o finansowanie, w jednym z numerów gazety dla pracowników Sberbank Technologies - SBT Vision Andrei Khlyzov poinformował, że budżet programu wynosi ponad miliard dolarów.

Program znalazł się w finale konkursu IPMA International Project Excellence Award 2015 w kategorii „Projekty mega-wielkości”, którego wyniki zostaną podsumowane pod koniec września.

Andrey Khlyzov podkreśla, że ​​przy takiej skali program został ukończony w rekordowym czasie: projekt ukończono w cztery lata, zaś przeciętnie opracowanie i wdrożenie podobne programy na świecie zajmuje to 10-12 lat.

Efekty programu

Sbierbank jako jeden z najważniejszych skutków centralizacji wymienia przyspieszenie wprowadzania nowych produktów na rynek: jeśli wcześniej ich obieg trwał średnio tydzień, teraz w wielu przypadkach zajmuje to jeden dzień.

Mówiąc o efektach ekonomicznych „Centralizacji 2.0”, bank przytacza dane, że bieżąca wartość netto (NPV) programu wyniosła około 8 miliardów rubli. Osiągnięto to poprzez optymalizację kosztów w realizacji podstawowych procesów biznesowych oraz redukcję kosztów IT. W której efekt ekonomiczny prawie podwoił plan: początkowo Sbierbank spodziewał się otrzymać 4,6 miliarda rubli.

Ważnym rezultatem było ograniczenie przestojów technologicznych systemów informatycznych w Sbierbanku. W trakcie realizacji programu opracowano technologię migracji danych online bez zakłócania usług bankowych elastyczne zarządzanie załaduj system.

W wyniku centralizacji znacznie wzrosła również produktywność systemów informatycznych banku, zauważa Sbierbank. Do poziomego skalowania przetwarzania danych wprowadzono technologię Oracle RAC, która umożliwiła rozproszenie przetwarzania danych banków regionalnych na kilka węzłów w oparciu o trzy wysokiej klasy systemy IBM Power 795.

Trudności projektowe

Przejście banków regionalnych na jedną platformę nie przebiegło gładko. Jednym z problemów podczas realizacji programu było nieprzygotowanie samego centrum megadanych do „wypełnienia” systemów oraz ograniczona przestrzeń. Andriej Chłyzow mówił o tym w publikacja korporacyjna dla pracowników SberTech – SBT Vision. Problemy pojawiły się także na poziomie oprogramowania: np. podczas tworzenia scentralizowanego IASK (zintegrowanego systemu automatycznego udzielania pożyczek) dla osób fizycznych na platformie Oracle.

Błąd w oprogramowaniu IBM spowolnił program Sberbank na 9 miesięcy

We wrześniu 2015 r. Andriej Chłyzow powiedział firmie TAdviser, że przy wdrażaniu eKS (ujednoliconego systemu korporacyjnego) Sbierbank zidentyfikował poważny błąd w zastosowanym w projekcie systemie operacyjnym IBM AIX, przez co spowolniło tempo wdrażania programu.

Wdrożenie eKS-u rozpoczęło się w 2011 roku. Na platformę obliczeniową wybrano nowe, wydajne serwery IBM p795. Ten model serwera został wydany pod koniec 2010 roku i nie został jeszcze „przetestowany” na projektach o skali porównywalnej z projektem Sberbank.

Błąd w oprogramowaniu dał się odczuć, gdy wzrosło obciążenie maszyny w trybie SMT4 (SMT - jednoczesna wielowątkowość, SMT4 - 4-wątkowy SMT na rdzeń). Dla eKS planowano wykorzystanie trzech maszyn IBM p795. Początkowo, pod koniec 2011 roku, tryb SMT4 został uruchomiony tylko na jednym z nich i system działał normalnie – mówi Chłyzow. Do systemu przyłączono wówczas trzy banki – Zachodni Ural, Zachodniosyberyjski i Syberyjski. Jednak po podłączeniu do maszyny innego banku, Ural Bank, zaczęły się poważne problemy: system zaczął się zawieszać i, jak się okazało, zawieszać się na poziomie systemu operacyjnego.

„W rzeczywistości napotkaliśmy nieudokumentowany błąd na poziomie systemu operacyjnego AIX. Ostatecznie rozwiązaliśmy ten problem dopiero po około dziewięciu miesiącach” – mówi główny architekt IT Sbierbanku.

Według niego, ponieważ był to problem nuklearnego systemu operacyjnego, rozwiązano go wspólnie ze specjalistami IBM, w tym amerykańskimi, a także specjalistami Oracle i Symantec, których oprogramowanie również jest zaangażowane w system, oraz specjalistami bankowymi. Na tym tle w banku utworzono nawet specjalną regulowaną podorganizację – CritSit (skrót od sytuacji krytycznej) – która podnosi problemy związane z zewnętrznymi dostawcami i rozwiązuje je na poziomie wiodących inżynierów Sbierbanku.

Według Andrieja Chłyzowa bank był przekonany, że problem da się pokonać, ale ta historia spowolniła tempo realizacji programu centralizacji: „Usunęliśmy reżim SMT4 i sytuacja się ustabilizowała, po czym nie dodaliśmy nikogo innego do systemu przez prawie dziewięć miesięcy.”

Po rozwiązaniu problemu na poziomie systemu operacyjnego i zainstalowaniu przez bank wszystkich aktualizacji, w tym aktualizacji Oracle, Symantec i oprogramowania aplikacyjnego, tryb SMT4 został ponownie włączony, a banki nadal łączyły się z systemem – powiedział Chłyzow.