Prognozy Red Hat na 2019: edge computing, blockchain i sztuczna inteligencja

Sztuczna Inteligencja (AI)/Uczenie Maszynowe (ML)

Daniel Riek, senior director, AI, Office of the CTO, Red Hat

Obciążenie pracą sztucznej inteligencji (SI) stanie się głównym motorem strategii IT. Wykorzystanie technologii SI odzwierciedla rozwój i transformację branży informatycznej. Kontrahenci coraz bardziej skupiają się na inteligentnych aplikacjach, które mogłyby umożliwić im usprawnienie biznesu. Dotyczy to dowolnego sposobu pracy oprogramowania, nie tylko w zakresie tradycyjnej działalności biznesowej, lecz także w ramach prowadzenia badań, procesu produkcyjnego i – w coraz większym stopniu – w odniesieniu do samych produktów. Zwiększona skala automatyzacji osiągalna przy wykorzystaniu sztucznej inteligencji szybko stanie się krytyczna w zakresie budowy konkurencyjności firm, co uczyni SI technologią definiującą strategię działania.

Kubernetes (a także Amazon S3 i open source’owy Apache Kafka) będzie uznany za platformę domyślną dla skalowania obciążeń roboczych sztucznej inteligencji. W zakresie platform, rozwój inteligentnych aplikacji napędza przejście od tradycyjnego modelu Big Data, jako systemu autonomicznego, do konwergentnej platformy aplikacji skoncentrowanej na danych. Linux i Kubernetes stanowią trzon technologii w zakresie tych zmian, wraz z S3 jako interfejsu dla danych w spoczynku, gdzie dane w ruchu obsługuje Apache Kafka.

AIOps zrewolucjonizuje działalność działów IT, obszarów rozwoju oprogramowania oraz zarządzania zwanych SRE (ang. Site Reliability Engineering). Procesy IT same w sobie stanowią wartościowe pole stosowania SI. Krytyczne znaczenie ma doskonałość tych procesów, szczególnie dla osiągnięcia sukcesu w nowoczesnym, definiowanym przez oprogramowanie świecie zasobów obliczeniowych. Automatyzacja oparta o SI i optymalizacja oparta o uczenie się z agregowanych danych dotyczących wydajności, nadadzą podejmowanym procesom nowy wymiar, jednocześnie demokratyzując doskonałość operacji chmurowych w stopniu, który jak dotąd był osiągalny wyłącznie dla największych natywnych operatorów rozwiązań chmurowych.

Edge computing

Mike Hansen, sales development lead, telco, Red Hat

Informacje pochodzące z Internetu rzeczy oraz inne dane zbierane za pośrednictwem sieci bezprzewodowych są aktualnie najczęściej przekazywane do prywatnej lub publicznej chmury. Tam są przetwarzane za pomocą analityki, sztucznej inteligencji czy uczenia maszynowego. Sieć 5G pozwoli na przesyłanie ogromnych ilości danych do rozproszonych sieci bezprzewodowych, co sprawi, że dalsze przekazywanie tych danych do scentralizowanej chmury obliczeniowej będzie niepraktyczne. Dane będą zarządzane i przetwarzane lokalnie, na brzegu sieci CSP (ang. Communicating Sequential Processes).

Trend ten stworzy dostawcom usług bezprzewodowych szansę (i konieczność ekonomiczną) monetyzacji sieci 5G poprzez oferowanie usług z zakresu zarządzania i przetwarzania danych, takich jak analiza, sztuczna inteligencja i uczenie maszynowe. W 2019 roku będziemy świadkami utworzenia globalnego konsorcjum dostawców usług bezprzewodowych. Konsorcjum to będzie współpracować w celu rozwinięcia wspólnej platformy i metodyki uruchamiania „inteligentnych” aplikacji, zawierających w sobie analitykę danych, zdolności SI i uczenia maszynowego, na brzegu sieci tychże dostawców usług.

Obecnie mówimy o chmurach hybrydowych, łączących prywatną i publiczną infrastrukturę za pośrednictwem sieci WAN, którą często utrzymuje dostawca usług telekomunikacyjnych.  W 2019 roku powstanie również nowy paradygmat, znany jako Hybrid Edge Computing. Architektura Hybrid Edge Computing będzie stanowiła trzeci typ chmury w hybrydowym modelu rozwiązań obliczeniowych: będzie to infrastruktura zlokalizowana na brzegu sieci dostawcy usług telekomunikacyjnych. Model ten będzie niezbędny do wspierania „inteligentnych” aplikacji korzystających z danych zbieranych w ramach sieci 5G.