Pandemia znacznie zwiększyła ilość przesyłanych danych. Coraz więcej firm do ich przetwarzania wdraża rozwiązania oparte na sztucznej inteligencji [DEPESZA]
Tylko w tym roku w wyniku pandemii koronawirusa na całym świecie zostanie przetworzonych 59 zetabajtów danych. Rosnąca w lawinowym tempie ilość przesyłanych informacji wymusza błyskawiczną cyfryzację firm i administracji. Podstawą w tym procesie jest sztuczna inteligencja, która jednak wymaga stosowania odpowiedniej infrastruktury IT. Powszechnie stosowane dziś rozwiązania przestają wystarczać, dlatego coraz więcej przedsiębiorstw decyduje się na inwestycje w serwery zaprojektowane stricte z myślą o sztucznej inteligencji i analizie wielkich zbiorów danych. Już teraz są wykorzystywane także w walce z pandemią.
– Sztuczna inteligencja będzie wymagała znacznych zasobów obliczeniowych. Kiedy technologia stanie się bardziej złożona, a koszty ogólne będą lawinowo rosnąć, znalezienie opłacalnych środowisk do prowadzenia intensywnych procesów będzie zarówno wymogiem, jak i przewagą konkurencyjną. Firmy będą musiały się dostosować i być elastyczne, zwłaszcza w zakresie infrastruktury. Technologie chmurowe – w szczególności hybrydowe – są i będą podstawą sztucznej inteligencji, ponieważ potrzebuje ona znacznych ilości danych – mówi agencji Newseria Biznes Jakub Grzywacz, Infrastructure Solution Architect w Goldenore.
Sztuczna inteligencja (SI) to jedna z fundamentalnych technologii w procesie cyfrowej transformacji, dla której motorem są dane. Według dotychczasowych szacunków IDC globalna baza danych miała zwiększyć się z 45 w ubiegłym do 175 zetabajtów w 2025 roku, przy czym prawie 30 proc. z nich będzie musiało być przetwarzanych w czasie rzeczywistym. Nowsze prognozy pokazują jednak, że tylko w tym roku na całym świecie zostanie przetworzonych 59 ZB danych. Do tego wzrostu przyczyniła się pandemia COVID-19.
IDC prognozuje, że wydatki firm na systemy SI będą znacząco przyspieszać, bo organizacje coraz szerzej wdrażają je w ramach swojej cyfrowej transformacji, aby utrzymać konkurencyjność w realiach cyfrowej gospodarki. W ciągu najbliższych czterech lat globalne wydatki na SI mają się podwoić z obecnych 50,1 mld dol. do ponad 110 mld dol. w 2024 roku przy średniorocznej stopie wzrostu na poziomie ponad 20 proc. Rozwiązania SI wymagają jednak odpowiedniej architektury.
– Korzystając z infrastruktury, która została zaprojektowana z myślą o obsłudze właśnie takich systemów, mamy pewność, że maksymalizujemy korzyści z pracy SI i informacji zawartych w naszych danych. Zastosowanie dedykowanych rozwiązań jest bardziej efektywne niż rozwiązań do ogólnych przeznaczeń. Dedykowana platforma dostarczy wyniki szybciej, co z kolei pozwala na szybsze reagowanie i podejmowanie decyzji – wskazuje Jakub Grzywacz.
W tej chwili firmy, które potrzebują bardzo dużych mocy obliczeniowych w celu przetwarzania danych w chmurze czy obsługi systemów SI, dość powszechnie korzystają z rozwiązań opartych na serwerach w architekturze x86 (stosowanej także w domowych komputerach). Część organizacji zaczyna od nich odchodzić, bo przestają być wystarczające, a ich skalowanie wymaga np. fizycznej rozbudowy centrów danych, co pociąga też za sobą większe koszty zasilania czy chłodzenia.
Co więcej, wraz ze wzrostem ilości danych serwery będą musiały dostosowywać się do rosnących potrzeb. Dlatego też z rozwiązaniami opartymi na x86 coraz skuteczniej konkurują na rynku serwery IBM Power Systems (oparte na procesorach POWER9 i autorskiej architekturze amerykańskiego producenta), zaprojektowane do przetwarzania ogromnych ilości danych i przystosowane do działania w chmurze. Ich skalowanie nie wymaga rozbudowy centrum danych dzięki zaawansowanej wirtualizacji sprzętu.
– Prawie każda firma lub organizacja wykorzystuje wirtualizację. Procesory Power zostały zaprojektowane z myślą o niej, a samo zastosowanie wirtualizacji skutkuje około 2-proc. narzutem na wydajność. Architektura x86 posiłkuje się rozwiązaniami firm trzecich i nie uzyskuje tak dobrych wyników – mówi ekspert z Goldenore. – Trzeba też pamiętać, że nie wszystkie procesory sprawdzają się np. przy obciążeniach związanych ze sztuczną inteligencją. W procesorach IBM Power mamy wykorzystaną akcelerację GPU za pomocą technologii NVIDIA NVLink 2.0 dla połączenia zarówno pomiędzy procesorami logicznymi i graficznymi, jak i graficznymi między sobą. U konkurencji akceleracja dotyczy wyłącznie procesorów graficznych.
Jak podaje IBM, po migracji i konsolidacji obciążeń na Power Systems zajęta powierzchnia serwerowni może zmniejszyć się o 85 proc., a zastosowanie tej technologii dodatkowo ogranicza koszty zużycia energii elektrycznej nawet do 80 proc. Obsługa platformy wymaga mniej pracy od administratorów, dzięki czemu mogą poświęcać więcej czasu na inne, innowacyjne projekty. Duża skalowalność powoduje też, że firma nie będzie mieć problemów z zaspokojeniem swoich rosnących potrzeb na moce obliczeniowe, związanych z nowymi projektami czy po prostu rozwojem przedsiębiorstwa.
Co istotne, w porównaniu z jednostkami klasy x86 serwery IBM Power Systems zapewniają dwukrotnie większą wydajność na każdy rdzeń procesora i pięciokrotnie szybszą przepustowość danych.
– Power Systems zostały zaprojektowane dla obciążeń wymagających dużej wydajności, takich jak analiza danych, sztuczna inteligencja czy aplikacje tworzone dla chmury. Natomiast x86 został stworzony dla wielu rynków, m.in. pod rozwiązania serwerowe, komputery PC i laptopy, była nawet próba wejścia na rynek smartfonów – wymienia Jakub Grzywacz.
Dla firm równie istotna jest niezawodność sprzętu, bo wszelkie zakłócenia w realizacji operacji oznaczają straty finansowe, których wysokość może sięgnąć od kilku do nawet kilkuset tysięcy dolarów.
– Serwery IBM cechują się również wysoką niezawodnością i odpornością na awarię, co prowadzi do długiego czasu dostępności i braku nieplanowanych przestojów działania systemów – podkreśla ekspert.
Według kwietniowego raportu ITIC, która co roku przeprowadza ankietę wśród ok. 1 tys. globalnych przedsiębiorstw na temat niezawodności serwerów i ich systemów operacyjnych, serwery IBM Power Systems okazały się pod tym względem najlepsze i otrzymały najwyższe oceny już po raz 12. z rzędu. W ich przypadku średni przestój z powodu nieprzewidzianych wad sprzętowych wyniósł w tym roku nieco ponad 1 minutę, podczas gdy przestój serwerów klasy x86 wahał się między 4,8 a18 min. Koszt takiego przestoju waha się od 24 tys. do nawet 90 tys. dol., tymczasem w przypadku IBM Power Systems wyniósł on 6 tys. dol. – wynika z obliczeń ITIC.
Brak kosztów związanych z przestojami to niejedyne oszczędności, jakie generuje IBM Power Systems. Fizyczny sprzęt to nie są jedyne wydatki niezbędne do działania systemów.
– Czynnikiem, który trzeba wziąć pod uwagę, jest całkowity koszt posiadania. Koszt samej platformy jest zazwyczaj stosunkowo niewielki w stosunku do kosztu oprogramowania, które na niej działa. W porównaniu do innych platform mniejsza liczba rdzeni zapewni taką samą wydajność, dzięki czemu całe rozwiązanie będzie wymagało zakupu mniejszej liczby licencji. Dodatkowo dzięki takiej konsolidacji firma oszczędza na kosztach przestrzeni, prądu czy klimatyzacji – wskazuje Jakub Grzywacz.
Procesory IBM POWER9 są już wykorzystywane m.in. w superkomputerze Summit, który swoje działanie opiera na sztucznej inteligencji. Jego moc obecnie jest używana m.in. do walki z koronawirusem. We współpracy m.in. z Białym Domem oraz Departamentem Energii Stanów Zjednoczonych IBM pomaga w uruchomieniu COVID-19 High Performance Computing Consortium, które zapewni bezprecedensową moc obliczeniową - 16 systemów o mocy ponad 330 petaflopsów, 775 tys. rdzeni procesorów, 34 tys. procesorów graficznych. Konsorcjum ma na celu pomoc naukowcom na całym świecie w lepszym zrozumieniu COVID-19, metod leczenia i potencjalnych leków.
Pandemia zapoczątkowała w Polsce cyfrową rewolucję. Na niespotykaną dotąd skalę cyfryzują się zarówno firmy, jak i urzędy
Inwestycje w internet rzeczy ponownie przyspieszą od przyszłego roku. Problemami pozostają cyberbezpieczeństwo i brak odpowiedniego prawa
Cyfryzacja może pomóc firmom poradzić sobie ze skutkami pandemii. Umożliwia pracę zdalną, komunikację z klientami i nowy sposób świadczenia usług online
Czytaj także
- 2024-12-30: Ludzie przestają ufać treściom publikowanym w internecie. Rośnie także potrzeba bycia offline
- 2024-12-18: Inżynierowie z Warszawy pracują nad innowacjami dla całej Grupy Orange. Ich specjalności to AI i cyberbezpieczeństwo
- 2024-12-17: Polscy badacze pracują nad kwantowym przetwarzaniem sygnału. To rozwiązanie pomoże zapewnić superbezpieczną łączność
- 2024-12-12: Wdrażanie GenAI może oznaczać nasilenie stresu wśród pracowników. Firmy potrzebują odpowiedniej strategii komunikacyjnej
- 2024-11-26: Sztuczna inteligencja rewolucjonizuje marketing. Narzędzia AI dają drugie życie tradycyjnym formom reklamy
- 2025-01-02: Wiktor Dyduła: Słyszę coraz więcej utworów wygenerowanych przez sztuczną inteligencję. Trudno je odróżnić od kompozycji stworzonych przez ludzi
- 2024-12-11: Coraz większa rola sztucznej inteligencji w marketingu. Wirtualni influencerzy na razie pozostają ciekawostką
- 2024-11-27: Sztuczna inteligencja nie zastąpi pisarzy. Nie tworzy literatury, tylko książki dla zabicia czasu
- 2024-11-22: Artur Barciś: Od sztucznej inteligencji dowiedziałem się, że zmarłem na scenie. Dla niej jestem kompletnie nikim
- 2024-10-28: Martyna Wojciechowska: Sztuczna inteligencja zastępująca dziennikarzy i artystów to niepokojący trend. To prowadzi do dezinformacji
Kalendarium
Więcej ważnych informacji
Jedynka Newserii
Jedynka Newserii
Handel
Konsumenci w sieci narażeni na długą listę manipulacyjnych praktyk sprzedażowych. Zagraniczne platformy wymykają się unijnym regulacjom
Wraz z pojawieniem się na polskim i europejskim rynku platform sprzedażowych spoza UE rośnie też liczba przypadków stosowania tzw. dark patterns, czyli manipulacyjnych technik sprzedażowych. Nowe regulacje UE – w tym rozporządzenie w sprawie jednolitego rynku usług cyfrowych oraz akt o usługach cyfrowych – mają lepiej chronić przed nimi konsumentów, a podmiotom stosującym takie praktyki będą grozić wysokie kary finansowe. Problemem wciąż pozostaje jednak egzekwowanie tych przepisów od zagranicznych platform, które wymykają się europejskim regulacjom. – To jest w tej chwili bardzo duże wyzwanie dla całego rynku cyfrowego, że w praktyce regulacje nie dotyczą w takim samym stopniu wszystkich graczy – mówi Teresa Wierzbowska, prezeska Związku Pracodawców Prywatnych Mediów.
Fundusze unijne
Europejscy młodzi twórcy w centrum polskiej prezydencji w Radzie UE. Potrzebne nowe podejście do wsparcia ich karier
Wsparcie startu kariery młodych artystów i debata nad regulacjami dla sektora audiowizualnego, które będą odpowiadać zmieniającej się rzeczywistości technologicznej – to dwa priorytety polskiej prezydencji w Radzie UE z zakresu kultury. Najbliższe półrocze będzie także okazją do promocji polskich twórców w państwach członkowskich i kandydujących, a współpraca z artystami z innych krajów ma pokazać, że kultura może łączyć i być platformą dialogu międzynarodowego.
Ochrona środowiska
Tylko 1 proc. zużytych tekstyliów jest przetwarzanych. Selektywna zbiórka może te statystyki poprawić
Wraz z nowymi przepisami dotyczącymi gospodarki odpadami od stycznia 2025 roku gminy w Polsce wprowadziły selektywną zbiórkę zużytych tekstyliów. To oznacza, że przykładowo zniszczonych ubrań nie można już wyrzucić do frakcji zmieszane. Część gmin wprowadza ułatwienia dla mieszkańców w postaci dodatkowych kontenerów. W innych mieszkańcy będą musieli samodzielnie dostarczyć tekstylia do punktów selektywnej zbiórki odpadów komunalnych (PSZOK).
Partner serwisu
Szkolenia
Akademia Newserii
Akademia Newserii to projekt, w ramach którego najlepsi polscy dziennikarze biznesowi, giełdowi oraz lifestylowi, a także szkoleniowcy z wieloletnim doświadczeniem dzielą się swoją wiedzą nt. pracy z mediami.