Raport na temat bezpieczeństwa ogólnego AI
Pierwszy niezależny, międzynarodowy raport na temat bezpieczeństwa ogólnego AI
Raport przygotowany został przez 96 ekspertów z 30 państw, ONZ, UE i OECD, pod przewodnictwem Yoshuy Bengio
Celem było zebranie rzetelnej wiedzy naukowej o możliwościach, ryzykach i potencjalnych środkach zaradczych, bez rekomendowania konkretnych polityk.
Kluczowe tematy poruszone w raporcie nt. AI
Zdolności i perspektywy AI
- AI już dziś: analiza danych, generowanie obrazów, programowanie, wielomodalność i teksty na poziomie magisterskim.
- Potencjalny rozwój może być wolny, szybki lub ekstremalnie szybki, szczególnie ze względu na techniki „skalowania”
Trzy grupy ryzyk
- Malicious use (złośliwe wykorzystanie): cyberataki, produkcja broni biologicznej/chemicznej, deepfake, oszustwa
- Malfunctions (awarie): błędy w działaniu AI prowadzące do wadliwych decyzji
- Systemic risks (ryzyka systemowe): zakłócenia rynku pracy, wpływ na klimat, ryzyko „ucieczki spod kontroli”, oraz presja na zasoby jak energia i woda
Rynek pracy
- Automatyzacja wielu zadań biurowych – AI‑agenci – może prowadzić do znacznych zwolnień. Część miejsc pracy może zostać zastąpiona, inne pojawią się w nowych sektorach
Środowisko naturalne
- Centra danych odpowiadają za ~1 % globalnych emisji CO₂. AI może pochłaniać nawet 28 % ich zużycia energii. Problematyczna jest także ogromna potrzeba chłodzenia wodą
Ryzyko „utraty kontroli”
- Potencjalne scenariusze z autonomicznymi AI-agentami budzą obawy – choć eksperci są podzieleni, co do prawdopodobieństwa
Bezpieczeństwo biologiczne i cybernetyczne
- AI może dostarczać instrukcje dla tworzenia patogenów w skali eksperckiej; rozwój w dziedzinie ofensywy cybernetycznej (automatyczne wykrywanie słabości systemowych)
Deepfake’i i prywatność
- Szybki wzrost generowania wykorzystywanych np. w szantażach pornograficznych. Obecnie trudno oszacować skalę problemu z powodu zgłaszania incydentów
- Ryzyko wycieku prywatnych danych i trudnych do wykrycia działań monitorujących.
Propozycje łagodzenia ryzyk
Techniczne i organizacyjne środki jak:
- filtrowanie danych treningowych (usuwanie PII),
- rozwój modeli działających lokalnie na urządzeniach,
- stosowanie szyfrowania i monitoringu,
- wbudowanie narzędzi AI do nadzoru i audytu innych AI