Pandemia znacznie zwiększyła ilość przesyłanych danych. Coraz więcej firm do ich przetwarzania wdraża rozwiązania oparte na sztucznej inteligencji [DEPESZA]
Tylko w tym roku w wyniku pandemii koronawirusa na całym świecie zostanie przetworzonych 59 zetabajtów danych. Rosnąca w lawinowym tempie ilość przesyłanych informacji wymusza błyskawiczną cyfryzację firm i administracji. Podstawą w tym procesie jest sztuczna inteligencja, która jednak wymaga stosowania odpowiedniej infrastruktury IT. Powszechnie stosowane dziś rozwiązania przestają wystarczać, dlatego coraz więcej przedsiębiorstw decyduje się na inwestycje w serwery zaprojektowane stricte z myślą o sztucznej inteligencji i analizie wielkich zbiorów danych. Już teraz są wykorzystywane także w walce z pandemią.
– Sztuczna inteligencja będzie wymagała znacznych zasobów obliczeniowych. Kiedy technologia stanie się bardziej złożona, a koszty ogólne będą lawinowo rosnąć, znalezienie opłacalnych środowisk do prowadzenia intensywnych procesów będzie zarówno wymogiem, jak i przewagą konkurencyjną. Firmy będą musiały się dostosować i być elastyczne, zwłaszcza w zakresie infrastruktury. Technologie chmurowe – w szczególności hybrydowe – są i będą podstawą sztucznej inteligencji, ponieważ potrzebuje ona znacznych ilości danych – mówi agencji Newseria Biznes Jakub Grzywacz, Infrastructure Solution Architect w Goldenore.
Sztuczna inteligencja (SI) to jedna z fundamentalnych technologii w procesie cyfrowej transformacji, dla której motorem są dane. Według dotychczasowych szacunków IDC globalna baza danych miała zwiększyć się z 45 w ubiegłym do 175 zetabajtów w 2025 roku, przy czym prawie 30 proc. z nich będzie musiało być przetwarzanych w czasie rzeczywistym. Nowsze prognozy pokazują jednak, że tylko w tym roku na całym świecie zostanie przetworzonych 59 ZB danych. Do tego wzrostu przyczyniła się pandemia COVID-19.
IDC prognozuje, że wydatki firm na systemy SI będą znacząco przyspieszać, bo organizacje coraz szerzej wdrażają je w ramach swojej cyfrowej transformacji, aby utrzymać konkurencyjność w realiach cyfrowej gospodarki. W ciągu najbliższych czterech lat globalne wydatki na SI mają się podwoić z obecnych 50,1 mld dol. do ponad 110 mld dol. w 2024 roku przy średniorocznej stopie wzrostu na poziomie ponad 20 proc. Rozwiązania SI wymagają jednak odpowiedniej architektury.
– Korzystając z infrastruktury, która została zaprojektowana z myślą o obsłudze właśnie takich systemów, mamy pewność, że maksymalizujemy korzyści z pracy SI i informacji zawartych w naszych danych. Zastosowanie dedykowanych rozwiązań jest bardziej efektywne niż rozwiązań do ogólnych przeznaczeń. Dedykowana platforma dostarczy wyniki szybciej, co z kolei pozwala na szybsze reagowanie i podejmowanie decyzji – wskazuje Jakub Grzywacz.
W tej chwili firmy, które potrzebują bardzo dużych mocy obliczeniowych w celu przetwarzania danych w chmurze czy obsługi systemów SI, dość powszechnie korzystają z rozwiązań opartych na serwerach w architekturze x86 (stosowanej także w domowych komputerach). Część organizacji zaczyna od nich odchodzić, bo przestają być wystarczające, a ich skalowanie wymaga np. fizycznej rozbudowy centrów danych, co pociąga też za sobą większe koszty zasilania czy chłodzenia.
Co więcej, wraz ze wzrostem ilości danych serwery będą musiały dostosowywać się do rosnących potrzeb. Dlatego też z rozwiązaniami opartymi na x86 coraz skuteczniej konkurują na rynku serwery IBM Power Systems (oparte na procesorach POWER9 i autorskiej architekturze amerykańskiego producenta), zaprojektowane do przetwarzania ogromnych ilości danych i przystosowane do działania w chmurze. Ich skalowanie nie wymaga rozbudowy centrum danych dzięki zaawansowanej wirtualizacji sprzętu.
– Prawie każda firma lub organizacja wykorzystuje wirtualizację. Procesory Power zostały zaprojektowane z myślą o niej, a samo zastosowanie wirtualizacji skutkuje około 2-proc. narzutem na wydajność. Architektura x86 posiłkuje się rozwiązaniami firm trzecich i nie uzyskuje tak dobrych wyników – mówi ekspert z Goldenore. – Trzeba też pamiętać, że nie wszystkie procesory sprawdzają się np. przy obciążeniach związanych ze sztuczną inteligencją. W procesorach IBM Power mamy wykorzystaną akcelerację GPU za pomocą technologii NVIDIA NVLink 2.0 dla połączenia zarówno pomiędzy procesorami logicznymi i graficznymi, jak i graficznymi między sobą. U konkurencji akceleracja dotyczy wyłącznie procesorów graficznych.
Jak podaje IBM, po migracji i konsolidacji obciążeń na Power Systems zajęta powierzchnia serwerowni może zmniejszyć się o 85 proc., a zastosowanie tej technologii dodatkowo ogranicza koszty zużycia energii elektrycznej nawet do 80 proc. Obsługa platformy wymaga mniej pracy od administratorów, dzięki czemu mogą poświęcać więcej czasu na inne, innowacyjne projekty. Duża skalowalność powoduje też, że firma nie będzie mieć problemów z zaspokojeniem swoich rosnących potrzeb na moce obliczeniowe, związanych z nowymi projektami czy po prostu rozwojem przedsiębiorstwa.
Co istotne, w porównaniu z jednostkami klasy x86 serwery IBM Power Systems zapewniają dwukrotnie większą wydajność na każdy rdzeń procesora i pięciokrotnie szybszą przepustowość danych.
– Power Systems zostały zaprojektowane dla obciążeń wymagających dużej wydajności, takich jak analiza danych, sztuczna inteligencja czy aplikacje tworzone dla chmury. Natomiast x86 został stworzony dla wielu rynków, m.in. pod rozwiązania serwerowe, komputery PC i laptopy, była nawet próba wejścia na rynek smartfonów – wymienia Jakub Grzywacz.
Dla firm równie istotna jest niezawodność sprzętu, bo wszelkie zakłócenia w realizacji operacji oznaczają straty finansowe, których wysokość może sięgnąć od kilku do nawet kilkuset tysięcy dolarów.
– Serwery IBM cechują się również wysoką niezawodnością i odpornością na awarię, co prowadzi do długiego czasu dostępności i braku nieplanowanych przestojów działania systemów – podkreśla ekspert.
Według kwietniowego raportu ITIC, która co roku przeprowadza ankietę wśród ok. 1 tys. globalnych przedsiębiorstw na temat niezawodności serwerów i ich systemów operacyjnych, serwery IBM Power Systems okazały się pod tym względem najlepsze i otrzymały najwyższe oceny już po raz 12. z rzędu. W ich przypadku średni przestój z powodu nieprzewidzianych wad sprzętowych wyniósł w tym roku nieco ponad 1 minutę, podczas gdy przestój serwerów klasy x86 wahał się między 4,8 a18 min. Koszt takiego przestoju waha się od 24 tys. do nawet 90 tys. dol., tymczasem w przypadku IBM Power Systems wyniósł on 6 tys. dol. – wynika z obliczeń ITIC.
Brak kosztów związanych z przestojami to niejedyne oszczędności, jakie generuje IBM Power Systems. Fizyczny sprzęt to nie są jedyne wydatki niezbędne do działania systemów.
– Czynnikiem, który trzeba wziąć pod uwagę, jest całkowity koszt posiadania. Koszt samej platformy jest zazwyczaj stosunkowo niewielki w stosunku do kosztu oprogramowania, które na niej działa. W porównaniu do innych platform mniejsza liczba rdzeni zapewni taką samą wydajność, dzięki czemu całe rozwiązanie będzie wymagało zakupu mniejszej liczby licencji. Dodatkowo dzięki takiej konsolidacji firma oszczędza na kosztach przestrzeni, prądu czy klimatyzacji – wskazuje Jakub Grzywacz.
Procesory IBM POWER9 są już wykorzystywane m.in. w superkomputerze Summit, który swoje działanie opiera na sztucznej inteligencji. Jego moc obecnie jest używana m.in. do walki z koronawirusem. We współpracy m.in. z Białym Domem oraz Departamentem Energii Stanów Zjednoczonych IBM pomaga w uruchomieniu COVID-19 High Performance Computing Consortium, które zapewni bezprecedensową moc obliczeniową - 16 systemów o mocy ponad 330 petaflopsów, 775 tys. rdzeni procesorów, 34 tys. procesorów graficznych. Konsorcjum ma na celu pomoc naukowcom na całym świecie w lepszym zrozumieniu COVID-19, metod leczenia i potencjalnych leków.
Pandemia zapoczątkowała w Polsce cyfrową rewolucję. Na niespotykaną dotąd skalę cyfryzują się zarówno firmy, jak i urzędy
Inwestycje w internet rzeczy ponownie przyspieszą od przyszłego roku. Problemami pozostają cyberbezpieczeństwo i brak odpowiedniego prawa
Cyfryzacja może pomóc firmom poradzić sobie ze skutkami pandemii. Umożliwia pracę zdalną, komunikację z klientami i nowy sposób świadczenia usług online
Czytaj także
- 2024-03-28: Postęp technologiczny rewolucjonizuje pracę specjalistów ds. finansów. Stają się strategicznymi doradcami biznesu
- 2024-03-27: Rozporządzenie Parlamentu Europejskiego ws. sztucznej inteligencji będzie ogromną zmianą na tym rynku. Brakuje wciąż regulacji dotyczącej praw autorskich
- 2024-03-19: Banki przypominają dziś firmy softwarowe. Ich funkcjonowanie coraz bardziej oparte na nowych technologiach
- 2024-03-14: M. Boni: Potrzebujemy planu wdrożenia nowego aktu o sztucznej inteligencji. To może być zadanie polskiej prezydencji w UE
- 2024-04-11: Europie nie udaje się dogonić USA i Chin w rozwoju sztucznej inteligencji. Nie wykorzystujemy skali jednolitego rynku cyfrowego
- 2024-03-12: Wątpliwości dotyczące bezpieczeństwa danych przetwarzanych w różnych urzędach. NIK zapowiada kontrole we wszystkich jednostkach samorządu terytorialnego
- 2024-03-07: Polki należą do najbardziej przedsiębiorczych kobiet w UE. Jednak wciąż jest ich zbyt mało w zarządach i radach nadzorczych firm
- 2024-03-18: Sztuczna inteligencja coraz bliższa ludzkiemu sposobowi przyswajania wiedzy. Naukowcy opracowali model, który uczy się języka tak jak dzieci
- 2024-02-27: „Antyplagiat” z nową funkcją wykrywania treści pisanych przez sztuczną inteligencję. Dyskusja o regulacjach w tym zakresie nabiera tempa
- 2024-02-29: Prace nad unijnym AI Act na finiszu. W kwestii regulacji sztucznej inteligencji USA czy Chiny nie podążą ścieżką Europy
Kalendarium
Więcej ważnych informacji
Jedynka Newserii
Jedynka Newserii
Infrastruktura
Padają kolejne rekordy generacji energii z OZE. Przez jakość sieci duży potencjał wciąż jest niezagospodarowany
W Polsce padają w ostatnim czasie kolejne rekordy generacji prądu z OZE. – Potencjał wzrostu wciąż jednak mamy bardzo duży – zauważa Krzysztof Cibor z Greenpeace Polska. W tej chwili ten potencjał pozostaje w dużej mierze niewykorzystany m.in. przez regulacje hamujące rozwój energetyki wiatrowej na lądzie i zły stan sieci elektroenergetycznych, który przekłada się na dużą liczbę odmów przyłączania nowych źródeł odnawialnych albo konieczność ich czasowego wyłączania. Ekspert wskazuje, że to dwa najważniejsze zadania dla nowego rządu, który na czerwiec br. zapowiedział już liberalizację tzw. ustawy wiatrakowej.
Edukacja
Polacy mało wiedzą o instytucji rodzicielstwa zastępczego. Dwie trzecie społeczeństwa nigdy nie spotkało się z tym pojęciem
Aż 64 proc. Polaków nigdy nie spotkało się z pojęciem rodzicielstwa zastępczego zawodowego – wynika z badania przeprowadzonego w marcu br. na zlecenie Fundacji Happy Kids. Najliczniejszą grupą, która nie zna tego pojęcia, stanowią respondenci między 18. a 22. rokiem życia. Co 10. badany nie wie, jaka jest różnica między rodzicem zastępczym a rodzicem adopcyjnym. Zdaniem ekspertów brak świadomości ma konsekwencje dla rozwoju instytucji pieczy zastępczej w Polsce.
IT i technologie
Nowy ośrodek w Krakowie będzie wspierać innowacje dla NATO. Połączy start-upy i naukowców z sektorem obronności
Połączenie najzdolniejszych naukowców oraz technologicznych start-upów z firmami z sektora obronnego i wojskowego – to główny cel akceleratora, który powstaje w Krakowie. Będzie on należał do natowskiej sieci DIANA, która z założenia ma służyć rozwojowi technologii służących zarówno w obronności, jak i na rynku cywilnym w krajach sojuszniczych NATO. Eksperci liczą na rozwiązania wykorzystujące m.in. sztuczną inteligencję, drony czy technologie kwantowe. Dla sektora to szansa na pozyskanie innowacji na skalę światową, a dla start-upów szansa na wyjście na zagraniczne rynki i pozyskanie środków na globalny rozwój.
Partner serwisu
Szkolenia
Akademia Newserii
Akademia Newserii to projekt, w ramach którego najlepsi polscy dziennikarze biznesowi, giełdowi oraz lifestylowi, a także szkoleniowcy z wieloletnim doświadczeniem dzielą się swoją wiedzą nt. pracy z mediami.