Az OpenAI új biztonsági intézkedéseket jelentett be, felkészülve arra, hogy mesterséges intelligencia (MI) modelljeinek következő generációja elérheti azt a veszélyes képességszintet, amely potenciálisan biofegyverek létrehozását is segítheti. A vállalat célja a kockázatok proaktív kezelése és a káros felhasználás megakadályozása.

  • Az OpenAI előrejelzése szerint az o3 érvelési modelljének utódai elérik a „magas kockázatú” státuszt a biológiai fenyegetésekre vonatkozó felkészültségi keretrendszerükben.
  • Az enyhítő intézkedések magukban foglalják a modellek betanítását a káros kérések visszautasítására, folyamatosan működő rendszerek bevezetését a gyanús tevékenységek észlelésére, valamint a fejlett „vörös csapat” tesztelést.
  • A vállalat júliusra egy biodvédelmi csúcstalálkozót is tervez kormányzati kutatókkal és civil szervezetekkel a kockázatok, ellenszerek és kutatások megvitatására.

Az OpenAI nemrégiben egy új blogbejegyzésben részletezte azokat a biztonsági intézkedéseket, amelyeket azzal a céllal vezet be, hogy felkészüljön mesterséges intelligencia (MI) modelljeinek következő generációjára. A vállalat szerint ezek a modellek elérhetik azt a veszélyességi szintet, amely potenciálisan a biológiai fegyverek létrehozását is elősegítheti.

A fokozott kockázat és az o3 modell

Az OpenAI előrejelzése szerint az o3 érvelési modelljének utódai elérik a „magas kockázatú” státuszt a biológiai fenyegetésekre vonatkozó felkészültségi keretrendszerükben. Ez azt jelenti, hogy a jövőbeli MI rendszerek képességei olyan szintre fejlődhetnek, ahol komoly aggodalmak merülnek fel a lehetséges káros alkalmazások miatt.

Biztonsági intézkedések és védekezési stratégiák

A kockázatok enyhítése érdekében az OpenAI több fronton is beavatkozik:

  • Káros kérések visszautasítása: A modelleket úgy képzik, hogy azonosítsák és visszautasítsák azokat a kéréseket, amelyek biofegyverek létrehozásához vagy egyéb biológiai fenyegetésekhez kapcsolódó információkat vagy segítséget kérnek.
  • Folyamatos felügyelet: Mindig bekapcsolt rendszereket telepítenek a gyanús tevékenységek valós idejű észlelésére és jelzésére, biztosítva a folyamatos monitorozást.
  • Fejlett „vörös csapat” tesztelés: Szakértői csoportokat (ún. „red-teamet”) alkalmaznak, amelyek célja a rendszerek gyenge pontjainak és lehetséges kihasználási módjainak feltárása, még mielőtt azok nyilvánosságra kerülnének.

Kormányzati és civil együttműködés

A vállalat emellett júliusra egy biodvédelmi csúcstalálkozót is tervez, amelyre kormányzati kutatókat és nem kormányzati szervezeteket (NGO-kat) hív meg. A találkozó célja a biológiai fenyegetésekkel kapcsolatos kockázatok, az ellenszerek és a kapcsolódó kutatások megvitatása, elősegítve a globális együttműködést és a közös megoldások kidolgozását.

Hasonló iparági lépések

Az OpenAI lépése nem egyedi az iparágban; hasonló biztonsági intézkedéseket vezetett be az Anthropic is, amely nemrégiben szigorúbb protokollokat aktivált Claude 4 modellcsaládjának kiadásakor. Ez azt jelzi, hogy az MI-fejlesztő cégek egyre inkább felismerik a technológia potenciális veszélyeit és a proaktív védekezés fontosságát.

Miért fontos ez?

Az MI azon képességei, amelyek tudományos áttöréseket hozhatnak, rossz kezekbe kerülve rendkívül veszélyes dolgokra is felhasználhatók. A modellek következő fejlesztési szintje teljesen új szintre emeli a tétet. Bár a kiegészítő védintézkedések és a proaktív lépések pozitívak, gyorsan ismeretlen területre lépünk. A technológia fejlődésével párhuzamosan elengedhetetlen a felelősségteljes fejlesztés és a folyamatos párbeszéd a lehetséges kockázatokról és azok kezeléséről.

Forrás: OpenAI blog

Szerző: Szuhi Attila

Írd meg a véleményed!

Az e-mailcímed nem lesz nyilvános. A * jelölt mezők kötelezőek.

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}

Cikkek a témában

június 20, 2025

Stanford-tanulmány: Mit akarnak a dolgozók az AI-tól? Egy

június 20, 2025

Az OpenAI új biztonsági intézkedéseket jelentett be, felkészülve

június 20, 2025

A Google Gemini pánikba esett, amikor Pokémonnal játszott

június 20, 2025

A 2025-ös AI-használati kutatás, amelyet Török Balázs AI-szakértő


INGYENES!

TÖLTSD LE A GOOGLE 100 SEO TANÁCSÁT

A Google 100 legfontosabb keresőoptimalizálási tanácsa!