14 sierpnia 2020

Naukowcy ostrzegają przed sztuczną inteligencją: deepfake wśród największych zagrożeń

(Zdjęcie ilustracyjne. Źródło: pixabay.com)

Grupa naukowców z Kolegium Uniwersyteckiego w Londynie stworzyła listę największych zagrożeń związanych ze sztuczną inteligencją. Wśród nich wymieniają kradzież tożsamości, wykorzystanie automatycznych samochodów jako broni, ataki phishingowe, szantaż oraz fałszywe informacje określane jako „deepfake”. 

 

Caldwell, J. T. A. Andrews, T. Tanay i L. D. Griffin w artykule naukowym „AI-enebled future crime”, opublikowanym na łamach „Crime Science”, wyszczególnili 18 kategorii związanych z zagrożeniem ze strony sztucznej inteligencji. Przyznali im punkty w zależności od rozmiarów zagrożenia.

Wesprzyj nas już teraz!

 

Jednym z największych niebezpieczeństw jest kradzież tożsamości. Wykorzystanie technologii audio i wideo może prowadzić do wiarygodnego podawania się za inną osobę. Tego typu oszustwa okazują się wyjątkowo trudne do wykrycia, gdyż ludzi cechuje tendencja do wiary w to, co widzą i słyszą. Zagrożenia związane z tą techniką wiążą się z włamaniami do systemów bezpieczeństwa, a także z wyłudzeniami środków finansowych dzięki podawaniu się za bliską rodzinę. Oto metoda „na wnuczka” w XXI wieku.

 

Kolejne zagrożenie wiąże się z użyciem automatycznych samochodów jako broni. Będą one mogły zarówno przenosić materiały wybuchowe, jak i służyć jako broń kinetyczna. Wraz z wynalezieniem autonomicznych pojazdów terrorystom odpadnie konieczność rekrutowania osobiście narażających się kierowców, a ludzie zdalnie sterujący pojazdami będą mogły koordynować jednocześnie nawet kilka zamachów. Walka z tym zagrożeniem okaże się jednak względnie łatwa, nie tylko za sprawą środków bezpieczeństwa, lecz również dzięki zastosowaniu istniejących już przepisów ruchu drogowego.

 

Autorzy raportu wymieniają także zagrożenie związane z atakami phishingowymi skierowanymi na konkretną osobę lub instytucję.  Chodzi o podszywanie się pod zaufaną osobę czy organizację celem wyłudzenia dostępu do haseł (np. bankowości internetowej). Do tej pory tego typu ataki były skierowane na dużą, losową liczbę odbiorców. Jednak dzięki sztucznej inteligencji możliwe stanie się kierowanie phisingowych wiadomości skrojonych na miarę konkretnych celów (np. przez podszywanie się pod ich rodzinę czy znajomych). Wszystko dzięki wykorzystaniu danych z mediów społecznościowych, a nawet imitowania stylu komunikacji danej osoby. Ponadto kluczowa rola systemów opartych na sztucznej inteligencji czyni je podatnymi na atak. Dotyczy to szczególnie instytucji państwowych czy związanych z operacjami finansowymi. Na szczęście dane niezbędne do takiego ataku nie okażą się łatwe do zdobycia.

 

Kolejny problem wiąże się z szantażem. W tradycyjnej postaci wiąże się on groźbą ujawnienia dowodów niszczących reputację szantażowanego. Przestępca w zamian za ich nieujawnianie (czy zniszczenie) żąda konkretnej korzyści – zazwyczaj finansowej. Jednak zdobycie tych dowodów wymaga pewnych kosztów i szantażysta – nim zdecyduje się na działanie – musi żywić przekonanie, że koszty te się zwrócą. Tymczasem za sprawą sztucznej inteligencji, koszt pozyskania hańbiących kogoś dowodów okazuje się niższy, gdyż SI można wykorzystać do zdobywania kompromitujących danych z mediów społecznościowych, telefonów, e-maili et cetera. To zaś umożliwi szantażowanie na szerszą skalę.

 

Istotne zagrożenie stanowi także szczególnie niebezpieczny rodzaj fałszywych materiałów – tak zwany deepfake. SI pozwala bowiem na fabrykowanie materiałów audiowizualnych dotyczących innych osób.  To zaś może prowadzić wpływać na zachowania społeczne, jak na przykład wybory. Z problemem tym trudno zdaniem badaczy uporać się w czysto techniczny sposób, zwłaszcza, że granica między prawdziwą informacją a fakenewsem bywa cienka.

 

Źródła: crimesciencejournal.biomedcentral.com / cyfrowa.rp.pl

mjend

 

Wesprzyj nas!

Będziemy mogli trwać w naszej walce o Prawdę wyłącznie wtedy, jeśli Państwo – nasi widzowie i Darczyńcy – będą tego chcieli. Dlatego oddając w Państwa ręce nasze publikacje, prosimy o wsparcie misji naszych mediów.

Udostępnij
Komentarze(0)

Dodaj komentarz

Anuluj pisanie

Udostępnij przez

Cel na 2024 rok

Skutecznie demaskujemy liberalną i antychrześcijańską hipokryzję. Wspieraj naszą misję!

mamy: 127 784 zł cel: 300 000 zł
43%
wybierz kwotę:
Wspieram