Zacznijmy od pytania czym tak naprawdę jest cloud computing?

Nie ma niestety jednej definicji, co powoduje, że jest dużo trudnych rozmów w tym temacie. Najbliżej mojemu sercu jest opis NIST z 2011 roku – NIST SP 800-145, The NIST Definition of Cloud Computing. Ja zawsze tłumaczę cloud computing w następujący sposób: Cloud Computing to marketingowe określenie dostarczania na żądanie infrastruktury, platformy, bądź aplikacji z konsumpcyjnym modelem rozliczania.

Tłumacząc to jeszcze prościej: płacimy za to co użyjemy i możemy używać tak dużo jak potrzebujemy i kiedy potrzebujemy.

A skąd się wzięła idea chmury?

Sama idea jest sięga lat osiemdziesiątych, ale komercyjne sprzedawanie platformy jako usługi, na zauważalną skalę rozpoczął Amazon w 2005 roku. Amazon zauważył, że ich biznes potrzebuje BARDZO dużo zasobów IT w okresach świątecznych, a przez resztę roku zasoby są nieużywane. Założył, że inne firmy mają tak samo, tj. potrzebują zwiększonych zasobów informatycznych tylko w określonych okresach czasowych.

Amazon postanowił rozwiązać problem innych firm, ale też swój, oferując zasoby komputerowe, które nie są używane non-stop. Powstał w ten sposób Amazon Web Services, oferujący usługi dla programistów. W pierwszej kolejności była to usługa kolejkowa, potem przestrzeń dyskowa, a następnie wirtualne maszyny. Reszta jest historią.

Cloudcomputing łączymy z elastycznością, większą wydajnością czy wyższą dostępnością. Czy jest to słuszne skojarzenie?

Posłużę się przykładem. Startuję z usługą finansową, która wymaga baz danych, serwerów aplikacyjnych, hurtowni danych, etc. W normalnym modelu wymagane jest kupienie serwerów, oprogramowania, zatrudnienie lub wyszkolenie ludzi, instalacja, integracja… i już za 12 miesięcy mamy gotowe środowisko pod nasz projekt. Świat jednak zmienia się bardzo szybko i nie ma czasu na czekanie.

W chmurze możemy powołać powyższe środowisko w kilka, kilkanaście minut, co może nie jest aż tak ciekawe, gdyż dobrze zautomatyzowany system w Data Center też to potrafi. To co natomiast jest cudowne w chmurze, to możliwość wyłączenia środowiska w dowolnym momencie lub powiększenia, gdy projekt się przyjmie. Nie ryzykujemy nic. Środowisko rośnie wtedy, gdy chcemy lub kiedy konfiguracja na to pozwala. Nie musimy czekać na nowy sprzęt, tylko możemy korzystać z najnowszych serwisów dostawców chmury kilka sekund po ogłoszeniu danego serwisu lub po przejściu dostawcy chmury na bardziej wydajny sprzęt.

Ponadto dostawcy dodatkowo budują swoje rozwiązania rozproszone geograficznie, co diametralnie zwiększa dostępność usług. Oczywiście nie obejdzie się bez pracy architektów, którzy wiedzą jak to wykorzystać, ale praca w dużej ilości przypadków ogranicza się tu do kilku kliknięć.

Proszę powiedzieć, w jaki sposób system cloudcomputingu zmienia sposób zarządzania firmą?

Zmiany są zauważalne na wielu poziomach. Po pierwsze sposób płacenia. Nie potrzebujemy gigantycznych inwestycji na początku projektu. Nie ma znaczenia, czy chodzi tu o wirtualne maszyny, system baz danych, czy aplikację CRM. Zaczynamy od małego środowiska za kilka dolarów, a następnie zwiększamy lub wyłączamy, gdy już nie potrzebujemy. Pracowałem z firmami, które przechodząc w model chmury zmniejszały wydatki na IT setki razy.

Dodatkowo chmura wprowadza nową formę szybkości. Programista, architekt, ale też coraz częściej osoba biznesowa, może stworzyć rozwiązanie od A do Z w kilka godzin, bez oczekiwania na serwery, aplikacje, zakupy, etc.

A jak wygląda efektywność tego rozwiązania? Czy wdrożenie systemu cloudcomputing jest bardzo kosztowne?

Koszta wynikają głównie z przeszkolenia ludzi lub wynajęcia firmy, która w tym pomoże. Koszta chmury są minimalne na początku, a rosną dopiero w trakcie używania. Jest to bardzo wygodne właśnie dla opłacalności projektów. Jeśli chodzi o potencjalne oszczędności, jakie mogą być wygenerowane przy przejściu na ‘chmurę’ to wszystko zależy od zakresu zmian.

Migrując z wirtualnych maszyn na wirtualne maszyny w chmurze możemy zaoszczędzić kilka, kilkadziesiąt procent, ale też… zapłacić więcej. Chmura wymaga po pierwsze zmienienia modelu działania firmy, ale też spojrzenia głębiej. Dla przykładu Amazon Web Services, Microsoft Azure lub Google Cloud Platform, mają w sumie ponad 200 usług, gdzie wirtualne maszyny to tylko część układanki.

Jeżeli zaczniemy w firmie używać rozwiązań PaaS (Platform as a Service), SaaS (Software as a Service) lub popularnych w ostatnich miesiącach FaaS (Function as a Service), możemy dojść nawet do 1000-krotnych oszczędności. Pracowałem przy projekcie, gdzie koszt pewnego systemu kosztowało 21 centów miesięcznie. Mało możliwe jest dojście do takich poziomów w lokalnym Data Center nawet na najtańszych komponentach.

Czy istnieją jakieś bariery rozwoju cloudcomputingu?

Jesteśmy dopiero na początku ścieżki. W tej chwili dostawcy przytłaczają nas nowymi usługami i nowymi aktualizacjami. Dla przykładu w 2008 roku Amazon Web Services opublikował 28 nowości, podczas gdy w 2016 było ich już ponad 1000. Rozwój jest niesamowity, powstają nowe serwisy, jak np. skalowalna globalnie, relacyjna baza danych. Pojawiają się też nowe dziedziny, jak np. Sztuczna Inteligencja as a Service. Barierą nie jest już technologia, ale kreatywność firm dostarczających usługi, które powoli zastępują wielomilionowe (stare) biznesy, tanimi usługami o nieporównywalnej jakości.

Jakie są najpopularniejsze serwisy w chmurze?

W aspektach infrastruktury i platformy królują wirtualne maszyny, przestrzeń dyskowa oraz bazy danych. W aspekcie aplikacji, najwięcej wdrożeń dotyczy systemów związanych z produktywnością, takich jak Office 365 lub G-Suite.

Popularnym ostatnio tematem jest  bezpieczeństwo  systemów IT. Jak wygląda bezpieczeństwo danych w chmurze?

Nie ma bezpieczniejszego miejsca na przechowywanie danych niż chmura. Kropka. Niestety, aby się o tym przekonać trzeba umieścić tam swoje dane, co osoby, które tego nie zrobiły, uważają za niebezpieczne. Taki paradoks.

Dostawcy inwestują gigantyczne pieniądze na zatrudnianie najlepszych ludzi od bezpieczeństwa, komunikacja jest szyfrowana, dane są szyfrowane, dostęp do danych jest możliwy tylko dla właścicieli danych. Dostawcy chmury posiadają systemy ochrony przed DDoS i setki innych narzędzi.

Jednak te przykłady rzadko działają na osoby, które założyły, że dane lokalne są bezpieczniejsze, co okazało się już nie prawdą setki razy w Polsce, gdy słyszeliśmy o dużych wyciekach danych.

Na zakończenie poproszę Państwa na spojrzenie na dostawców chmury jak na firmy produkujące samoloty. Wyobraźcie sobie, że nagle jednego dnia spadają 10 samolotów jednej firmy. Loty stają, firma produkująca samoloty bankrutuje. Nikt nie chce od nich kupować. Koniec.

Taki Amazon Web Services ma ponad milion klientów. Proszę o wyobrażenie co by się stało, jakby nagle 10 klientów (0,001%) ogłosiło, że odkryli, że ich dane nie są bezpieczne. Koniec. Inni klienci rezygnują. Firma upada. Takie rzeczy jednak się nie dzieją. Dostawcy chmur stawiają na bezpieczeństwo. Ich biznesem nie jest utrata danych, czy robienie czegoś z tymi danymi. Ich biznesem jest dostarczanie W NAJBEZPIECZNIEJSZY MOŻLIWY SPSOÓB infrastruktury, platformy, bądź aplikacji, w konsumpcyjnym modelem rozliczania. I robią to bardzo dobrze.

Bardzo dziękujemy za rozmowę.

Mirosław Burnejko to jeden z nielicznych Poliglotów Chmury Publicznej. Pracował przy wielu projektach na całym świecie z użyciem takich chmur jak Amazon Web Services, Microsoft Azure i Google Cloud Platform. Doświadczenie zdobywał u integratorów, pracując jako niezależny konsultant Amazon Web Services oraz jako Cloud Solution Architect w Microsoft. Od lat prowadzi blog numer jeden o chmurze publicznej w Polsce, spotkanie Public Cloud User Group oraz firmę szkoleniową: 

______________________________________________________________________

IT-Leaders.pl to pierwsza na rynku platforma łącząca Specjalistów IT bezpośrednio z pracodawcami. Anonimowy, techniczny profil i konkretnie określone oczekiwania finansowe to tylko niektóre z cech wyróżniających platformę. Zarejestruj się i zobacz jak Cię widzi pracodawca.