Zarejestruj się i uzyskaj dostęp do licznych narzędzi

Ostrzeżenie przed potencjalnymi przestępczymi zastosowaniami ChatGPT

31/03/2023

27 marca br. Europol opublikował raport flash, ostrzegając, że ChatGPT i inne generatywne systemy sztucznej inteligencji mogą być wykorzystywane do oszustw internetowych i innych cyberprzestępstw – donosi Euractive.


Ostrzeżenie przed potencjalnymi przestępczymi zastosowaniami ChatGPT

Ostrzeżenie przed potencjalnymi przestępczymi zastosowaniami ChatGPT

Od końca listopada, kiedy to  ChatGPT został uruchomiony, stał się on jedną z najszybciej rozwijających się usług internetowych, przekraczając 100 milionów użytkowników w ciągu pierwszych dwóch miesięcy. Dzięki bezprecedensowej zdolności do generowania tekstu podobnego do ludzkiego na podstawie podpowiedzi, model stał się wirusowy.

 

"Przestępcy zazwyczaj szybko wykorzystują nowe technologie i szybko wymyślają konkretne przestępstwa, dostarczając pierwszych praktycznych przykładów zaledwie kilka tygodni po publicznym wydaniu ChatGPT" – czytamy w Raporcie.

 

Agencja UE zwraca uwagę na fakt, że zasady moderacji ChatGPT można obejść za pomocą tak zwanej szybkiej inżynierii, praktyki dostarczania danych wejściowych w modelu AI właśnie w celu uzyskania określonego wyniku.

Ponieważ ChatGPT jest stosunkowo nową technologią, luki są stale znajdowane pomimo ciągłego wdrażania poprawek. Te luki mogą przybrać formę poproszenia sztucznej inteligencji o dostarczenie podpowiedzi, poproszenia jej o udawanie fikcyjnej postaci lub udzielenia odpowiedzi w kodzie.

Inne obejścia mogą zastąpić słowa wyzwalające lub zmienić kontekst później podczas interakcji. Organ UE podkreślił, że najpotężniejsze obejścia, które są w stanie uwolnić model od wszelkich ograniczeń, stale ewoluują i stają się coraz bardziej złożone.

 

Unijne organy ścigania zidentyfikowały szereg nielegalnych przypadków użycia ChatGPT, które utrzymują się również w najbardziej zaawansowanym modelu OpenAI, GPT-4, gdzie potencjał szkodliwych reakcji systemu był w niektórych przypadkach jeszcze bardziej zaawansowany.

 

Jak wynika z publikacji Europol prognozuje, że wyzwanie stawiane przez te systemy będzie tylko rosło, gdy staną się one coraz bardziej dostępne i wyrafinowane, na przykład wraz z generowaniem wysoce przekonujących deep fake'ów.

 

Innym ryzykiem jest to, że te duże modele językowe mogą stać się dostępne w ciemnej sieci bez żadnych zabezpieczeń i zostać przeszkolone ze szczególnie szkodliwymi danymi. Rodzaj danych, które będą zasilać te systemy i sposób ich nadzorowania, są głównymi znakami zapytania na przyszłość.

 

Pod tym adresem można zapoznać się z treścią Raportu Europolu:

https://www.europol.europa.eu/publications-events/publications/chatgpt-impact-of-large-language-models-law-enforcement

 

Źródło https://www.euractiv.com/section/artificial-intelligence/news/europol-warns-against-potential-criminal-uses-for-chatgpt-and-the-likes/

 

 

Jeżeli chcesz być informowany na bieżąco o naszych publikacjach dołącz do nas i polub nas na Facebooku https://www.facebook.com/odoserwis.pl.2016/

-----------------------------------------------------

Wydawcą odoserwis.pl jest firma JDS Consulting świadcząca usługi outsourcingu Inspektora ochrony danych, doradztwa i audytu RODO; www.jds.com.pl

 

 

PUODO interweniuje w sprawie kamer nasobnych stosowanych przez kontrolerów biletów
PUODO interweniuje w sprawie kamer nasobnych stosowanych przez kontrolerów biletów
WSA potwierdził karę dla Polskiego Radia Szczecin
WSA potwierdził karę dla Polskiego Radia Szczecin
EROD przyjęła program prac na lata 2026–2027. Co planuje europejski organ ochrony danych?
EROD przyjęła program prac na lata 2026–2027. Co planuje europejski organ ochrony danych?