Przejdź do treści
Home » WIADOMOŚCI ZE ŚWIATA » ChatGPT jak bomba atomowa? Naukowcy ostrzegają przed „zanieczyszczeniem danych” w erze sztucznej inteligencji

ChatGPT jak bomba atomowa? Naukowcy ostrzegają przed „zanieczyszczeniem danych” w erze sztucznej inteligencji

17/06/2025 10:32 - AKTUALIZACJA 18/06/2025 09:30
ChatGPT jak bomba atomowa

ChatGPT jak bomba atomowa. Debiut ChatGPT 30 listopada 2022 roku zmienił świat — twierdzą niektórzy naukowcy — w sposób porównywalny do odpalenia pierwszej bomby atomowej. Tak jak test Trinity z 1945 roku rozpoczął erę nuklearną i przyczynił się do skażenia środowiska radioaktywnymi cząstkami, tak eksplozja modeli generatywnej AI może prowadzić do zanieczyszczenia cyfrowego — i to nieodwracalnie. Chodzi o tzw. model collapse, czyli zjawisko, w którym modele sztucznej inteligencji karmione są syntetycznymi danymi wytworzonymi przez inne modele. W efekcie każda kolejna generacja AI staje się mniej wiarygodna, a jej odpowiedzi coraz bardziej odbiegają od rzeczywistości.

ChatGPT jak bomba atomowa

ChatGPT jak bomba atomowa?

John Graham-Cumming, były CTO Cloudflare, już w marcu 2023 roku zarejestrował domenę lowbackgroundsteel.ai, nawiązując do stali low-background steel — metalu wolnego od promieniowania, pochodzącego sprzed ery atomowej. Stal ta była wykorzystywana w sprzęcie medycznym i naukowym, gdzie czystość materiałów miała kluczowe znaczenie. Analogicznie, dane wykorzystywane do trenowania modeli AI powinny pochodzić sprzed 2022 roku — czyli sprzed masowego „skażenia” syntetyczną treścią.
Problem jest jednak głębszy — dostęp do takich danych może stać się przywilejem tylko największych graczy na rynku. Start-upy czy mniejsze firmy mogą nie mieć możliwości trenowania własnych modeli na wystarczająco wartościowych danych, co prowadzi do monopolizacji technologii i pogłębienia przepaści między liderami a resztą świata.
Przeczytaj też: Rekordowo krótkie nazwy miejscowości – tylko jedna lub dwie litery!
Dalszy ciąg artykułu poniżej

Jak zatrzymać cyfrowe skażenie?

Czy da się to zatrzymać? Eksperci sugerują m.in. obowiązkowe oznaczanie treści wygenerowanych przez AI, promowanie federacyjnego uczenia się (bez udostępniania samych danych) czy tworzenie publicznych repozytoriów „czystych danych”. Ale to trudne do wdrożenia i niesie ze sobą ryzyko polityczne oraz zagrożenia dla prywatności.
Przeczytaj też: Ucieczka z USA: Rekordowa liczba Amerykanów stara się o obywatelstwo brytyjskie

Chiodo ostrzega: jeśli nie zaczniemy działać teraz, wkrótce może być za późno. „Skażenie danych może być nieodwracalne. A jeśli model collapse stanie się realnym problemem, koszt oczyszczenia środowiska cyfrowego może być ogromny – albo wręcz niemożliwy do poniesienia.” – ostrzega portal theregister.com