Raport na temat bezpieczeństwa ogólnego AI

2025-06-24

Pierwszy niezależny, międzynarodowy raport na temat bezpieczeństwa ogólnego AI


Raport przygotowany został przez 96 ekspertów z 30 państw, ONZ, UE i OECD, pod przewodnictwem Yoshuy Bengio

Celem było zebranie rzetelnej wiedzy naukowej o możliwościach, ryzykach i potencjalnych środkach zaradczych, bez rekomendowania konkretnych polityk.


Kluczowe tematy poruszone w raporcie nt. AI


Zdolności i perspektywy AI

  • AI już dziś: analiza danych, generowanie obrazów, programowanie, wielomodalność i teksty na poziomie magisterskim.
  • Potencjalny rozwój może być wolny, szybki lub ekstremalnie szybki, szczególnie ze względu na techniki „skalowania”


Trzy grupy ryzyk

  • Malicious use (złośliwe wykorzystanie): cyberataki, produkcja broni biologicznej/chemicznej, deepfake, oszustwa
  • Malfunctions (awarie): błędy w działaniu AI prowadzące do wadliwych decyzji
  • Systemic risks (ryzyka systemowe): zakłócenia rynku pracy, wpływ na klimat, ryzyko „ucieczki spod kontroli”, oraz presja na zasoby jak energia i woda


Rynek pracy

  • Automatyzacja wielu zadań biurowych – AI‑agenci – może prowadzić do znacznych zwolnień. Część miejsc pracy może zostać zastąpiona, inne pojawią się w nowych sektorach


Środowisko naturalne

  • Centra danych odpowiadają za ~1 % globalnych emisji CO₂. AI może pochłaniać nawet 28 % ich zużycia energii. Problematyczna jest także ogromna potrzeba chłodzenia wodą

Ryzyko „utraty kontroli”

  • Potencjalne scenariusze z autonomicznymi AI-agentami budzą obawy – choć eksperci są podzieleni, co do prawdopodobieństwa

Bezpieczeństwo biologiczne i cybernetyczne

  • AI może dostarczać instrukcje dla tworzenia patogenów w skali eksperckiej; rozwój w dziedzinie ofensywy cybernetycznej (automatyczne wykrywanie słabości systemowych)

Deepfake’i i prywatność

  • Szybki wzrost generowania wykorzystywanych np. w szantażach pornograficznych. Obecnie trudno oszacować skalę problemu z powodu zgłaszania incydentów
  • Ryzyko wycieku prywatnych danych i trudnych do wykrycia działań monitorujących.


 Propozycje łagodzenia ryzyk


Techniczne i organizacyjne środki jak:

  • filtrowanie danych treningowych (usuwanie PII),
  • rozwój modeli działających lokalnie na urządzeniach,
  • stosowanie szyfrowania i monitoringu,
  • wbudowanie narzędzi AI do nadzoru i audytu innych AI