Pandemia znacznie zwiększyła ilość przesyłanych danych. Coraz więcej firm do ich przetwarzania wdraża rozwiązania oparte na sztucznej inteligencji [DEPESZA]
Tylko w tym roku w wyniku pandemii koronawirusa na całym świecie zostanie przetworzonych 59 zetabajtów danych. Rosnąca w lawinowym tempie ilość przesyłanych informacji wymusza błyskawiczną cyfryzację firm i administracji. Podstawą w tym procesie jest sztuczna inteligencja, która jednak wymaga stosowania odpowiedniej infrastruktury IT. Powszechnie stosowane dziś rozwiązania przestają wystarczać, dlatego coraz więcej przedsiębiorstw decyduje się na inwestycje w serwery zaprojektowane stricte z myślą o sztucznej inteligencji i analizie wielkich zbiorów danych. Już teraz są wykorzystywane także w walce z pandemią.
– Sztuczna inteligencja będzie wymagała znacznych zasobów obliczeniowych. Kiedy technologia stanie się bardziej złożona, a koszty ogólne będą lawinowo rosnąć, znalezienie opłacalnych środowisk do prowadzenia intensywnych procesów będzie zarówno wymogiem, jak i przewagą konkurencyjną. Firmy będą musiały się dostosować i być elastyczne, zwłaszcza w zakresie infrastruktury. Technologie chmurowe – w szczególności hybrydowe – są i będą podstawą sztucznej inteligencji, ponieważ potrzebuje ona znacznych ilości danych – mówi agencji Newseria Biznes Jakub Grzywacz, Infrastructure Solution Architect w Goldenore.
Sztuczna inteligencja (SI) to jedna z fundamentalnych technologii w procesie cyfrowej transformacji, dla której motorem są dane. Według dotychczasowych szacunków IDC globalna baza danych miała zwiększyć się z 45 w ubiegłym do 175 zetabajtów w 2025 roku, przy czym prawie 30 proc. z nich będzie musiało być przetwarzanych w czasie rzeczywistym. Nowsze prognozy pokazują jednak, że tylko w tym roku na całym świecie zostanie przetworzonych 59 ZB danych. Do tego wzrostu przyczyniła się pandemia COVID-19.
IDC prognozuje, że wydatki firm na systemy SI będą znacząco przyspieszać, bo organizacje coraz szerzej wdrażają je w ramach swojej cyfrowej transformacji, aby utrzymać konkurencyjność w realiach cyfrowej gospodarki. W ciągu najbliższych czterech lat globalne wydatki na SI mają się podwoić z obecnych 50,1 mld dol. do ponad 110 mld dol. w 2024 roku przy średniorocznej stopie wzrostu na poziomie ponad 20 proc. Rozwiązania SI wymagają jednak odpowiedniej architektury.
– Korzystając z infrastruktury, która została zaprojektowana z myślą o obsłudze właśnie takich systemów, mamy pewność, że maksymalizujemy korzyści z pracy SI i informacji zawartych w naszych danych. Zastosowanie dedykowanych rozwiązań jest bardziej efektywne niż rozwiązań do ogólnych przeznaczeń. Dedykowana platforma dostarczy wyniki szybciej, co z kolei pozwala na szybsze reagowanie i podejmowanie decyzji – wskazuje Jakub Grzywacz.
W tej chwili firmy, które potrzebują bardzo dużych mocy obliczeniowych w celu przetwarzania danych w chmurze czy obsługi systemów SI, dość powszechnie korzystają z rozwiązań opartych na serwerach w architekturze x86 (stosowanej także w domowych komputerach). Część organizacji zaczyna od nich odchodzić, bo przestają być wystarczające, a ich skalowanie wymaga np. fizycznej rozbudowy centrów danych, co pociąga też za sobą większe koszty zasilania czy chłodzenia.
Co więcej, wraz ze wzrostem ilości danych serwery będą musiały dostosowywać się do rosnących potrzeb. Dlatego też z rozwiązaniami opartymi na x86 coraz skuteczniej konkurują na rynku serwery IBM Power Systems (oparte na procesorach POWER9 i autorskiej architekturze amerykańskiego producenta), zaprojektowane do przetwarzania ogromnych ilości danych i przystosowane do działania w chmurze. Ich skalowanie nie wymaga rozbudowy centrum danych dzięki zaawansowanej wirtualizacji sprzętu.
– Prawie każda firma lub organizacja wykorzystuje wirtualizację. Procesory Power zostały zaprojektowane z myślą o niej, a samo zastosowanie wirtualizacji skutkuje około 2-proc. narzutem na wydajność. Architektura x86 posiłkuje się rozwiązaniami firm trzecich i nie uzyskuje tak dobrych wyników – mówi ekspert z Goldenore. – Trzeba też pamiętać, że nie wszystkie procesory sprawdzają się np. przy obciążeniach związanych ze sztuczną inteligencją. W procesorach IBM Power mamy wykorzystaną akcelerację GPU za pomocą technologii NVIDIA NVLink 2.0 dla połączenia zarówno pomiędzy procesorami logicznymi i graficznymi, jak i graficznymi między sobą. U konkurencji akceleracja dotyczy wyłącznie procesorów graficznych.
Jak podaje IBM, po migracji i konsolidacji obciążeń na Power Systems zajęta powierzchnia serwerowni może zmniejszyć się o 85 proc., a zastosowanie tej technologii dodatkowo ogranicza koszty zużycia energii elektrycznej nawet do 80 proc. Obsługa platformy wymaga mniej pracy od administratorów, dzięki czemu mogą poświęcać więcej czasu na inne, innowacyjne projekty. Duża skalowalność powoduje też, że firma nie będzie mieć problemów z zaspokojeniem swoich rosnących potrzeb na moce obliczeniowe, związanych z nowymi projektami czy po prostu rozwojem przedsiębiorstwa.
Co istotne, w porównaniu z jednostkami klasy x86 serwery IBM Power Systems zapewniają dwukrotnie większą wydajność na każdy rdzeń procesora i pięciokrotnie szybszą przepustowość danych.
– Power Systems zostały zaprojektowane dla obciążeń wymagających dużej wydajności, takich jak analiza danych, sztuczna inteligencja czy aplikacje tworzone dla chmury. Natomiast x86 został stworzony dla wielu rynków, m.in. pod rozwiązania serwerowe, komputery PC i laptopy, była nawet próba wejścia na rynek smartfonów – wymienia Jakub Grzywacz.
Dla firm równie istotna jest niezawodność sprzętu, bo wszelkie zakłócenia w realizacji operacji oznaczają straty finansowe, których wysokość może sięgnąć od kilku do nawet kilkuset tysięcy dolarów.
– Serwery IBM cechują się również wysoką niezawodnością i odpornością na awarię, co prowadzi do długiego czasu dostępności i braku nieplanowanych przestojów działania systemów – podkreśla ekspert.
Według kwietniowego raportu ITIC, która co roku przeprowadza ankietę wśród ok. 1 tys. globalnych przedsiębiorstw na temat niezawodności serwerów i ich systemów operacyjnych, serwery IBM Power Systems okazały się pod tym względem najlepsze i otrzymały najwyższe oceny już po raz 12. z rzędu. W ich przypadku średni przestój z powodu nieprzewidzianych wad sprzętowych wyniósł w tym roku nieco ponad 1 minutę, podczas gdy przestój serwerów klasy x86 wahał się między 4,8 a18 min. Koszt takiego przestoju waha się od 24 tys. do nawet 90 tys. dol., tymczasem w przypadku IBM Power Systems wyniósł on 6 tys. dol. – wynika z obliczeń ITIC.
Brak kosztów związanych z przestojami to niejedyne oszczędności, jakie generuje IBM Power Systems. Fizyczny sprzęt to nie są jedyne wydatki niezbędne do działania systemów.
– Czynnikiem, który trzeba wziąć pod uwagę, jest całkowity koszt posiadania. Koszt samej platformy jest zazwyczaj stosunkowo niewielki w stosunku do kosztu oprogramowania, które na niej działa. W porównaniu do innych platform mniejsza liczba rdzeni zapewni taką samą wydajność, dzięki czemu całe rozwiązanie będzie wymagało zakupu mniejszej liczby licencji. Dodatkowo dzięki takiej konsolidacji firma oszczędza na kosztach przestrzeni, prądu czy klimatyzacji – wskazuje Jakub Grzywacz.
Procesory IBM POWER9 są już wykorzystywane m.in. w superkomputerze Summit, który swoje działanie opiera na sztucznej inteligencji. Jego moc obecnie jest używana m.in. do walki z koronawirusem. We współpracy m.in. z Białym Domem oraz Departamentem Energii Stanów Zjednoczonych IBM pomaga w uruchomieniu COVID-19 High Performance Computing Consortium, które zapewni bezprecedensową moc obliczeniową - 16 systemów o mocy ponad 330 petaflopsów, 775 tys. rdzeni procesorów, 34 tys. procesorów graficznych. Konsorcjum ma na celu pomoc naukowcom na całym świecie w lepszym zrozumieniu COVID-19, metod leczenia i potencjalnych leków.
Pandemia zapoczątkowała w Polsce cyfrową rewolucję. Na niespotykaną dotąd skalę cyfryzują się zarówno firmy, jak i urzędy
Inwestycje w internet rzeczy ponownie przyspieszą od przyszłego roku. Problemami pozostają cyberbezpieczeństwo i brak odpowiedniego prawa
Cyfryzacja może pomóc firmom poradzić sobie ze skutkami pandemii. Umożliwia pracę zdalną, komunikację z klientami i nowy sposób świadczenia usług online
Czytaj także
- 2024-11-22: Artur Barciś: Od sztucznej inteligencji dowiedziałem się, że zmarłem na scenie. Dla niej jestem kompletnie nikim
- 2024-10-28: Martyna Wojciechowska: Sztuczna inteligencja zastępująca dziennikarzy i artystów to niepokojący trend. To prowadzi do dezinformacji
- 2024-11-04: Sztuczna inteligencja wzbudza w Polakach głównie ciekawość i obawy. Ponad połowa widzi w niej zagrożenie
- 2024-10-09: Szwedzka Akademia Nauk uhonorowała lata pracy nad sztuczną inteligencją. Nagroda Nobla trafiła do twórców sztucznych sieci neuronowych
- 2024-10-18: Nowe technologie zmieniają pracę statystyków. Mogą poddawać szybkiej analizie duże zasoby informacji
- 2024-10-23: Polska w końcówce krajów wdrażających w firmach sztuczną inteligencję. Bolączką jest brak kompetencji cyfrowych u menedżerów
- 2024-11-12: Świadoma sztuczna inteligencja może powstać jeszcze w tej dekadzie. Tego dotyczy dzisiejszy wyścig zbrojeń
- 2024-11-13: Polska ochrona zdrowia niegotowa na kolejny kryzys. Eksperci: nie wyciągnęliśmy lekcji z pandemii
- 2024-11-15: Polska z planem zmian w edukacji na następne 10 lat. Szkoły będą uczyć lepszego wykorzystania narzędzi cyfrowych
- 2024-09-26: Sejm pracuje nad nowelizacją ustawy o przetwarzaniu danych pasażera. Linie lotnicze liczą na uniknięcie miliardowych kar
Kalendarium
Więcej ważnych informacji
Jedynka Newserii
Jedynka Newserii
Rolnictwo
Dane satelitarne w użyciu urbanistów i samorządowców. Mogą im służyć do przygotowania na zmiany klimatu
Do 2031 roku rynek usług związanych z danymi satelitarnymi ma wzrosnąć ponad czterokrotnie – przewidują analitycy. Na rosnącą podaż wpływ może mieć nałożony na dużą część przedsiębiorców, w tym producentów rolnych, obowiązek raportowania wpływu środowiskowego. Dane satelitarne są jednak cennym narzędziem również w rękach urbanistów i samorządowców. Z dokładnością do milimetrów pokazują zjawiska takie jak np. osiadanie gruntów, co pozwala na wczesne podejmowanie decyzji o kluczowych modernizacjach infrastruktury.
Prawo
Nałóg nikotynowy wśród nieletnich zaczyna się najczęściej od e-papierosów. Przyciągają ich słodkie, owocowe smaki tych produktów
Co czwarty uczeń ma za sobą inicjację nikotynową, a dla większości z nich pierwszym produktem, po jaki sięgnęli, był e-papieros. Zdecydowana większość uczniów używających nikotyny korzysta właśnie z e-papierosów, a prawie połowa nie ma problemu z ich zakupem – wskazują nowe badania przeprowadzone z okazji Światowego Dnia Rzucania Palenia. Eksperci podkreślają, że niebezpiecznym produktem, z uwagi na ryzyko uzależnienia behawioralnego, są także e-papierosy beznikotynowe. Trwają prace nad przepisami, które m.in. zakażą ich sprzedaży nieletnim.
Ochrona środowiska
Futra z negatywnym wpływem na środowisko na każdym etapie produkcji. Wiąże się z 400-krotnie większym zużyciem wody niż poliestru
Biznes futrzarski ma negatywny wpływ na środowisko naturalne – podkreślają eksperci Stowarzyszenia Otwarte Klatki. Hodowle powodują zatrucie wód i gleb oraz są zagrożeniem dla bioróżnorodności. Z kolei produkcja futra z norek, lisów i jenotów generuje znacznie większe niż bawełna czy poliester emisje gazów cieplarnianych, zużycie wody i zanieczyszczenie wody. 25 listopada obchodzimy Dzień bez Futra, który ma zwrócić uwagę na cierpienie zwierząt hodowanych na potrzeby przemysłu futrzarskiego oraz promować etyczne i ekologiczne wybory w modzie.
Partner serwisu
Szkolenia
Akademia Newserii
Akademia Newserii to projekt, w ramach którego najlepsi polscy dziennikarze biznesowi, giełdowi oraz lifestylowi, a także szkoleniowcy z wieloletnim doświadczeniem dzielą się swoją wiedzą nt. pracy z mediami.