Newsy

Polacy pracują nad wykorzystaniem sztucznej inteligencji. NASK chce w ten sposób m.in. zapewnić cyberbezpieczeństwo w szkołach

2019-02-20  |  06:30
Mówi:prof. Jacek Leśkow, dyrektor NASK

prof. Christiana Drake, Uniwersytet Kalifornijski

prof. Antonio Napolitano, ekspert ds. telekomunikacji i przetwarzania sygnałów, Uniwersytet Parthenope w Neapolu

  • MP4
  • Sztuczna inteligencja ma potencjał, żeby przeobrazić nie tylko przemysł czy rynek pracy, lecz także całą administrację publiczną. Jednym z krytycznych obszarów jej zastosowania jest też cyberbezpieczeństwo. Instytut Badawczy NASK prowadzi obecnie badania nad analizą obrazów w oparciu o techniki sztucznej inteligencji i wykorzystaniem tego rozwiązania w celu wykrywania niechcianych treści czy ataków hakerskich. Instytut wykorzysta AI także w celu zapewnienia bezpieczeństwa Ogólnopolskiej Sieci Edukacyjnej, która połączy szybkim internetem 26 tys. szkół w całej Polsce.

    – Sztuczna inteligencja to temat krytyczny z punktu widzenia rozwoju całej Polski. Widzimy olbrzymie pole do zastosowania jej w zagadnieniach cyberbezpieczeństwa, ale również funkcjonowania administracji. Przykładem jest sieć edukacyjna OSE, którą właśnie konstruujemy. Jednym z największych zagrożeń dla dzieci i młodzieży szkolnej w sieci jest pornografia. Można sobie wyobrazić klasyfikator, który automatycznie będzie ostrzegać przed niebezpieczną zawartością. To tylko jeden prosty przykład – mówi agencji informacyjnej Newseria Biznes prof. Jacek Leśkow, dyrektor NASK.

    Jak podkreśla, zagadnieniem sztucznej inteligencji i jej potencjalnymi zastosowaniami z korzyścią dla polskiej gospodarki zajmują się w tej chwili duże agencje rządowe i co najmniej trzy ministerstwa – Nauki i Szkolnictwa Wyższego, Przedsiębiorczości i Technologii oraz Cyfryzacji.

    – Zastosowanie tej technologii znacznie zaważy w przyszłości na tempie wzrostu gospodarczego wielu państw. Rolą administracji jest właśnie wsparcie tych procesów, zarówno na poziomie krajowym, jak i międzynarodowym. Chcemy, aby ten potencjał otworzyć również dla Polski – wskazał w niedawno ogłoszonych „Założeniach do Strategii AI w Polsce” minister cyfryzacji Marek Zagórski.

    Z rekomendacji Ministerstwa Cyfryzacji wynika, że rozwój sztucznej inteligencji to dla Polski szansa na przyspieszenie wzrostu gospodarczego. Szerokie wykorzystanie technologii związanych z uczeniem maszynowym, wykorzystaniem danych i AI pozwoliłoby osiągnąć poziom PKB zaplanowany na lata 2035–2036 już pięć lat wcześniej i stworzyć nowe, wysoko wykwalifikowane miejsca pracy.

    – Pracujemy teraz nad standardem, który od 2021 roku będzie już standardem cyfryzacji państwa. Skończą się papiery, a wszystkie urzędy będą działały w oparciu o dokument elektroniczny. Dziś gdy pismo wpływa do urzędu, ktoś musi je otworzyć i zaklasyfikować do jednej z kilkunastu komórek. To z powodzeniem i znacznie szybciej może zrobić maszyna, klasyfikator oparty właśnie na sztucznej inteligencji. W skali Polski, gdzie około miliona osób pracuje w urzędach administracji państwowej, samorządowej czy w spółkach zależnych samorządów, to będą olbrzymie oszczędności czasu – podkreśla prof. Jacek Leśkow.

    Jednym z krytycznych obszarów, w których można wykorzystać sztuczną inteligencję, jest cyberbezpieczeństwo. NASK prowadzi obecnie badania nad analizą obrazów w oparciu o techniki sztucznej inteligencji i wykorzystaniem tego rozwiązania w celu wykrywania niechcianych treści czy ataków hakerskich.

    – Wszyscy mówimy teraz o pojazdach autonomicznych, a jedną z cech dobrego kierowcy – w tym przypadku elektronicznego – jest umiejętność czytania znaków. Istnieją już jednak złośliwe programy, które zakłócają tę umiejętność. Wystarczy lekkie zakłócenie obrazu i maszyna odczytuje zamiast znaku STOP znak ograniczenia do 30 km/h. Konsekwencje pomyłki mogą być tragiczne. Chodzi o to, aby mieć zabezpieczenia przed takimi złośliwymi atakami, czyli programy, które czynią sztuczną inteligencję bardziej odporną na różnego rodzaju złośliwe ataki – podkreśla prof. Jacek Leśkow.

    – Sztuczna inteligencja ma zasadniczy wpływ na cyberbezpieczeństwo, ponieważ mamy w niej techniki służące wykrywaniu zagrożeń dla bezpieczeństwa systemu komunikacyjnego. Kiedy pojawia się strumień danych pochodzących z sensorów, do tej pory takie dane były przetwarzane z użyciem klasycznych algorytmów przetwarzania sygnału. Jednak kiedy już zidentyfikujemy wszystkie cechy, to możemy zastosować techniki sztucznej inteligencji, aby zrobić użytek z tych końcowych informacji – dodaje prof. Antonio Napolitano z Uniwersytetu Parthenope w Neapolu, ekspert ds. telekomunikacji i przetwarzania sygnałów.

    Christiana Drake, profesor statystyki na Uniwersytecie Kalifornijskim w Davis, podkreśla, że mimo szerokiego potencjału zastosowań sztucznej inteligencji wciąż istnieje wiele wyzwań dla jej rozwoju. Takim podstawowym ogranicznikiem jest dostępność danych. Żeby rozwijać AI, potrzebne są ogromne liczby danych, które następnie komputer musi posegregować na informacje istotne i nieistotne. Obecnie możliwości komputerów w zakresie szybkiego przetwarzania danych wciąż są ograniczone.

    Kolejnym wyzwaniem jest zdolność AI do rozumienia języka naturalnego.

    – Chcielibyśmy nauczyć programy komputerowe inteligentnego rejestrowania danych w taki sposób, żeby zamiast zapisywać cały proces i wszystkie dane można było wykorzystać algorytmy adaptacyjne i odnotowywać tylko kluczowe cechy każdego obserwowanego procesu. Zapewne w tym zakresie sztuczna inteligencja mogłaby być niezwykle przydatna, zmniejszając liczbę danych, które muszą być przetworzone, co pozwoliłoby na znacznie szybsze wykonywanie obliczeń – mówi prof. Christiana Drake z Uniwersytetu Kalifornijskiego.

    Sztuczna inteligencja – w tym zagadnienia takie jak rozpoznawanie wzorców, aplikacje narzędzi uczenia maszynowego, głębokie sieci neuronowe i metody przetwarzania języka naturalnego – była kluczowym tematem międzynarodowej konferencji „Between cyclostationarity and artificial intelligence. Methods and applications” odbywającej się w Warszawie 13–15 lutego. To już dwunasta edycja konferencji poświęcona tej tematyce. W tym roku jej głównym organizatorem był Państwowy Instytut Badawczy NASK oraz spółka NASK for Innovations. W spotkaniu tradycyjnie wzięli udział polscy i zagraniczni badacze (m.in. z USA, Francji, Włoch, Węgier, Ukrainy i Rosji) z różnych dziedzin: wdrożeń analizy sygnałów, statystycznego przetwarzania sygnałów czy teorii prawdopodobieństwa.

    Czytaj także

    Kalendarium

    Więcej ważnych informacji

    Jedynka Newserii

    Jedynka Newserii

    Infrastruktura

    Prawo

    W lutym zmiana na stanowisku Europejskiego Rzecznika Praw Obywatelskich. Co roku trafia do niego kilka tysięcy spraw związanych z instytucjami unijnymi

    W ubiegłym tygodniu Parlament Europejski wybrał Portugalkę Teresę Anjinho na stanowisko Europejskiego Rzecznika Praw Obywatelskich. Ombudsman przyjmuje i rozpatruje skargi dotyczące przypadków niewłaściwego administrowania przez instytucje unijne lub inne organy UE. Tylko w 2023 roku pomógł ponad 17,5 tys. osobom i rozpatrzył niemal 2,4 tys. skarg.

    Problemy społeczne

    Przeciętny Polak spędza w sieci ponad trzy godziny dziennie. Tylko 11 proc. podejmuje próby ograniczenia tego czasu

    Polacy średnio spędzają w internecie ponad trzy godziny dziennie. Jednocześnie, według badania na temat higieny cyfrowej, jedynie 14 proc. respondentów kontroluje swój czas ekranowy, a co piąty ogranicza liczbę powiadomień w telefonie czy komputerze. Nadmierne korzystanie z ekranów może wpływać na zaniedbywanie obowiązków i relacji z innymi, a także obniżenie nastroju i samooceny. Kampania Fundacji Orange „Nie przescrolluj życia” zwraca uwagę na potrzebę dbania o higienę cyfrową. Szczególnie okres świątecznego wypoczynku sprzyja takiej refleksji.

    Partner serwisu

    Instytut Monitorowania Mediów

    Szkolenia

    Akademia Newserii

    Akademia Newserii to projekt, w ramach którego najlepsi polscy dziennikarze biznesowi, giełdowi oraz lifestylowi, a  także szkoleniowcy z wieloletnim doświadczeniem dzielą się swoją wiedzą nt. pracy z mediami.