Szuhi Attila
Utoljára frissítve: március 26, 2023
Témakör: 
mi ez? Mi Hírek

Az OpenAI a ChatGPT kiadója közzétett egy nyilatkozatot, amelyet Sam Altman, a cég vezérigazgatója jegyez. A szöveget változtatás nélkül közlöm, a fordításba csak néhol nyúltam bele a jobb érthetőség kedvéért.

Elöljáróban annyit, hogy a szöveg ijesztő lehet. Valami olyannak járhatunk az előszobájának, amit nem tudunk elképzelni, és egy olyan jövő vár ránk, ami szédítő fejlődést és ennek nyomán sok lehetséges, jó és rossz forgatókönyvet tartogathat.

A figyelmeztetéseknek külön súlyt ad, hogy nem egy sci-fi regényben olvassuk ezeket, vagy nem egy hozzá nem értő politikus szájából hallhatjuk, hanem egy olyan cég adta ki, amelyik élen jár a mesterséges intelligencia fejlesztésében.

A szöveget olvasva az merült fel bennem, hogy ezek az emberek félnek attól, amit létrehoznak. És azt, hogy ez a félelem jó.

Pár gondolatot kiemelek utána jöjjön a teljes szöveg.

  • Ha az AGI (általános mesterséges intelligencia) sikeresen létrejön, az segíthet az emberiség felemelkedésében, de társadalmi bomlás komoly kockázatával is járhat
  • a fokozatos átmenet az AGI-val rendelkező világba jobb, mint a hirtelen átmenet
  • Ahogy a rendszereik egyre közelebb kerülnek az AGI-hoz, egyre óvatosabbak leszünk a modelljeik létrehozásával és telepítésével kapcsolatban
  • A mesterséges intelligencia területén néhányan úgy gondolják, hogy az AGI (és az utódrendszerek) kockázatai fiktívek; örülnénk, ha kiderülne, hogy igazuk van, de mi úgy fogunk működni, mintha ezek a kockázatok egzisztenciálisak lennének.
  • Van egy felső határ a részvényeseink által elérhető hozamra, hogy ne ösztönözzön minket arra, hogy korlátlanul próbáljunk meg profitot szerezni, és kockáztassunk valami potenciálisan katasztrofálisan veszélyes dolog bevezetését
  • a világ rendkívül más lehet, mint amilyen ma, és a kockázatok rendkívüliek lehetnek. Egy félrecsúszott szuperintelligens AGI súlyos károkat okozhatna a világnak;
  • A szuperintelligenciával rendelkező világba való sikeres átmenet talán a legfontosabb – és egyben reményteli és ijesztő – projekt az emberiség történetében

Az OpenAI nyilatkozata

Küldetésünk az, hogy a mesterséges általános intelligencia (artificial general intelligence- AGI) – az embernél általában okosabb AI-rendszerek – az egész emberiség javát szolgálja.

Ha az AGI sikeresen létrejön, az segíthet az emberiség felemelkedésében azáltal, hogy növeli a jólétet, felpörgeti a globális gazdaságot, és segíthet olyan új tudományos ismeretek felfedezésében, amelyek megváltoztatják azt, hogy mit tekintünk lehetségesnek.

Az AGI hihetetlen új képességekkel ruházhat fel mindenkit; elképzelhetünk egy olyan világot, ahol mindannyiunk számára elérhetővé válik a segítség szinte bármilyen kognitív feladatban, ami megsokszorozhatja az emberi találékonyságot és kreativitást.

Másrészt az AGI megjelenése a visszaélések, a drámai balesetek és a társadalmi bomlás komoly kockázatával is járhat. Mivel az AGI előnyei olyan nagyok, nem hisszük, hogy lehetséges vagy kívánatos lenne, hogy a társadalom örökre leállítsa a fejlesztését; ehelyett a társadalomnak és az AGI fejlesztőinek ki kell találniuk, hogyan lehet jól csinálni[1].
Bár nem tudjuk pontosan megjósolni, hogy mi fog történni, és természetesen a jelenlegi fejlődésünk is falba ütközhet, megfogalmazhatjuk azokat az elveket, amelyek a leginkább érdekelnek minket:

  • Azt akarjuk, hogy az AGI képessé tegye az emberiséget a világegyetemben való maximális boldogulásra. Nem várjuk el, hogy a jövő egy korlátlan utópia legyen, de azt szeretnénk, ha a jót maximalizálnánk, a rosszat pedig minimalizálnánk, és ha az AGI az emberiséget erősítené.
  • Azt akarjuk, hogy az AGI előnyei, az ahhoz való hozzáférés és az AGI irányítása széles körben és igazságosan megosztható legyen.
  • Sikeresen akarunk megküzdeni a hatalmas kockázatokkal. E kockázatokkal szembenézve elismerjük, hogy ami elméletben helyesnek tűnik, a gyakorlatban gyakran a vártnál furcsábban alakul. Úgy véljük, hogy folyamatosan tanulnunk és alkalmazkodnunk kell, oly módon, hogy a technológia, kevésbé erőteljes és drámai változatait fokozatosan alkalmazzuk, hogy minimalizáljuk az „egyszeri alkalom, hogy jól csináljuk” forgatókönyveket.


Rövidtávon

Számos dolgot fontosnak tartunk most megtenni az AGI-ra való felkészülés érdekében.

Először is, ahogy egyre nagyobb teljesítményű rendszereket hozunk létre, szeretnénk azokat bevezetni, és tapasztalatot szerezni a valós világban való üzemeltetésükkel kapcsolatban. Úgy gondoljuk, hogy ez a legjobb módja annak, hogy az AGI-t óvatosan irányítsuk – a fokozatos átmenet az AGI-val rendelkező világba jobb, mint a hirtelen átmenet. Arra számítunk, hogy a nagy teljesítményű mesterséges intelligencia sokkal gyorsabbá teszi a világ fejlődésének ütemét, és úgy gondoljuk, hogy jobb, ha ehhez fokozatosan alkalmazkodunk.

A fokozatos átmenet időt ad az embereknek, a politikai döntéshozóknak és az intézményeknek arra, hogy megértsék, mi történik, személyesen megtapasztalják e rendszerek előnyeit és hátrányait, alkalmazkodjanak a gazdaságunkhoz, és szabályozásokat hozzanak létre. Ez azt is lehetővé teszi, hogy a társadalom és a mesterséges intelligencia együtt fejlődjön, és hogy az emberek közösen találják ki, mit akarnak, amíg a tét viszonylag alacsony.

Jelenleg úgy gondoljuk, hogy a mesterséges intelligencia bevezetésével kapcsolatos kihívások sikeres kezelésének legjobb módja a gyors tanulás és a gondos iteráció szoros visszacsatolási hurokja. A társadalomnak komoly kérdésekkel kell szembenéznie azzal kapcsolatban, hogy mit tehetnek az AI-rendszerek, hogyan küzdhetünk az előítéletek ellen, hogyan kezeljük a munkahelyek kiszorulását és még sok más kérdéssel. Az optimális döntések attól függnek majd, hogy a technológia milyen utat jár be, és mint minden új területen, a legtöbb szakértői előrejelzés eddig is téves volt. Ez nagyon megnehezíti a vákuumban történő tervezést[2].

Általánosságban úgy gondoljuk, hogy a mesterséges intelligencia nagyobb mértékű használata a világban jóra fog vezetni, és ezt szeretnénk előmozdítani (azáltal, hogy modelleket teszünk az API-nkba, nyílt forráskódúvá tesszük őket stb.) Úgy gondoljuk, hogy a demokratizált hozzáférés több és jobb kutatáshoz, decentralizált hatalomhoz, több előnyhöz és az új ötletekkel hozzájáruló emberek szélesebb köréhez is vezet.

Ahogy a rendszereink egyre közelebb kerülnek az AGI-hoz, egyre óvatosabbak leszünk a modelljeink létrehozásával és telepítésével kapcsolatban. Döntéseink sokkal nagyobb óvatosságot igényelnek majd, mint amit a társadalom általában alkalmaz az új technológiákra, és nagyobb óvatosságot, mint amit sok felhasználó szeretne. A mesterséges intelligencia területén néhányan úgy gondolják, hogy az AGI (és az utódrendszerek) kockázatai fiktívek; örülnénk, ha kiderülne, hogy igazuk van, de mi úgy fogunk működni, mintha ezek a kockázatok egzisztenciálisak lennének.

Ahogy a rendszereink egyre közelebb kerülnek az AGI-hoz, egyre óvatosabbak leszünk a modelljeink létrehozásával és alkalmazásával.

Egy bizonyos ponton az AGI előnyei és hátrányai közötti egyensúly (például a rosszindulatú szereplők megjelenése, társadalmi és gazdasági zavarok okozása és a nem biztonságos verseny felgyorsulása) eltolódhat, és ebben az esetben jelentősen megváltoztatjuk az AGI modellek folyamatos létrehozásával és publikálásával kapcsolatos terveinket.

Másodszor, azon dolgozunk, hogy egyre inkább összehangolt és irányítható modelleket hozzunk létre. A GPT-3 első verziójához hasonló modellekről az InstructGPT és a ChatGPT felé történő elmozdulásunk ennek korai példája.

Különösen fontosnak tartjuk, hogy a társadalom megállapodjon a mesterséges intelligencia felhasználásának rendkívül tág határairól, de e határok között az egyes felhasználóknak nagy mérlegelési jogkörük legyen. Végső soron azt reméljük, hogy a világ intézményei egyetértenek abban, hogy mik legyenek ezek a tág határok. A világ intézményeit további képességekkel és tapasztalatokkal kell megerősíteni, hogy felkészüljenek az AGI-val kapcsolatos összetett döntésekre.

Termékeink „alapértelmezett beállításai” valószínűleg meglehetősen korlátozottak lesznek, de tervezzük, hogy a felhasználók számára megkönnyítjük az általuk használt mesterséges intelligencia viselkedésének megváltoztatását. Hiszünk az egyének saját döntések meghozatalára való felhatalmazásában és az ötletek sokféleségében rejlő erőben.

Új megközelítési módokat és összehangolási technikákat kell kifejlesztenünk, ahogy a modelljeink egyre erősebbé válnak (és teszteket kell végeznünk, hogy megértsük, mikor vallanak kudarcot a jelenlegi technikáink). Rövidebb távon azt tervezzük, hogy a mesterséges intelligenciát arra használjuk, hogy segítsük az embereket az összetettebb modellek kimeneteinek értékelésében és az összetett rendszerek megfigyelésében, hosszabb távon pedig arra, hogy a mesterséges intelligencia segítségével új ötleteket találjunk ki a jobb összehangolási technikákhoz.

Fontosnak tartjuk, hogy gyakran együtt kell előrelépnünk az AI biztonsága és képességei terén. Hamis kettősség külön-külön beszélni róluk; sok tekintetben összefüggnek egymással. A legjobb biztonsági munkánkat a legképzettebb modelljeinkkel végzett munka során végeztük. Ennek ellenére fontos, hogy a biztonsági és a képességbeli előrelépés aránya növekedjen.

Harmadszor, reméljük, hogy globális beszélgetés kezdődik három kulcsfontosságú kérdésről: hogyan irányítsuk ezeket a rendszereket, hogyan osszuk el igazságosan az általuk generált előnyöket, és hogyan osszuk meg igazságosan a hozzáférést.

E három területen kívül megpróbáltuk úgy kialakítani a struktúránkat, hogy az ösztönzőinket a jó eredményhez igazítsuk. Alapszabályunkban van egy záradék arról, hogy ahelyett, hogy versenyeznénk velük az AGI késői fejlesztési fázisában, segítünk más szervezeteknek a biztonság előmozdításában. Van egy felső határ a részvényeseink által elérhető hozamra, hogy ne ösztönözzön minket arra, hogy korlátlanul próbáljunk meg értéket szerezni, és kockáztassunk valami potenciálisan katasztrofálisan veszélyes dolog bevezetését (és természetesen azért, hogy megosszuk az előnyöket a társadalommal). Van egy nonprofit szervezetünk, amely irányít minket, és lehetővé teszi számunkra, hogy az emberiség javára működjünk (és felülbírálhassuk a nyereségorientált érdekeket), beleértve azt is, hogy olyan dolgokat tegyünk, mint a részvényesek felé fennálló részvénykötelezettségeink megszüntetése, ha a biztonság érdekében szükséges, és a világ legátfogóbb UBI-kísérletének szponzorálása.

Megpróbáltuk úgy kialakítani a struktúránkat, hogy ösztönzőinket a jó eredményhez igazítsuk.
Fontosnak tartjuk, hogy a miénkhez hasonló erőfeszítések független ellenőrzéseknek vessék alá magukat, mielőtt új rendszereket adnánk ki; erről még idén részletesebben is beszélni fogunk. Egy bizonyos ponton fontos lehet, hogy a jövőbeli rendszerek képzésének megkezdése előtt független felülvizsgálatra kerüljön sor, és a legfejlettebb erőfeszítéseknek meg kell állapodniuk abban, hogy korlátozzák az új modellek létrehozásához használt számítási kapacitások növekedési ütemét. Úgy gondoljuk, hogy fontosak a nyilvános szabványok arra vonatkozóan, hogy egy AGI-erőfeszítésnek mikor kell leállítania egy képzési futtatást, mikor kell úgy döntenie, hogy egy modell biztonságosan kiadható, vagy mikor kell kivonnia egy modellt a gyártásból. Végezetül fontosnak tartjuk, hogy a világ nagy kormányai betekintést nyerjenek a bizonyos lépték feletti tréningfutásokba.

Hosszú távon

Úgy gondoljuk, hogy az emberiség jövőjét az emberiségnek kell meghatározni, és fontos, hogy a fejlődéssel kapcsolatos információkat megosszuk a nyilvánossággal. Az AGI kiépítésére irányuló minden erőfeszítést alaposan meg kell vizsgálni, és a főbb döntésekről nyilvános konzultációt kell tartani.

Az első AGI csak egy pont lesz az intelligencia kontinuumán. Úgy gondoljuk, hogy a fejlődés valószínűleg onnan folytatódni fog, és valószínűleg hosszú ideig fennmarad az elmúlt évtizedben tapasztalt fejlődési ütem. Ha ez igaz, akkor a világ rendkívül más lehet, mint amilyen ma, és a kockázatok rendkívüliek lehetnek. Egy félrecsúszott szuperintelligens AGI súlyos károkat okozhatna a világnak; egy döntő szuperintelligencia-vezetéssel rendelkező autokratikus rezsim is képes óriási károkat okozni.

A tudományt felgyorsítani képes AI egy speciális eset, amin érdemes elgondolkodni, és talán minden másnál nagyobb hatással bír. Lehetséges, hogy a saját fejlődését felgyorsítani képes AGI meglepően gyorsan okozhatna nagy változásokat (és még ha az átmenet lassan is kezdődik, a végső fázisban várhatóan elég gyorsan bekövetkezik). Úgy gondoljuk, hogy a lassabb felszállást könnyebb biztonságossá tenni, és valószínűleg fontos lesz az AGI erőfeszítései közötti koordináció, hogy a kritikus pontokon lelassítsunk (még egy olyan világban is fontos lehet a lassítás, ahol nem kell ezt tennünk a technikai összehangolási problémák megoldásához, hogy a társadalomnak elég ideje legyen az alkalmazkodásra).

A szuperintelligenciával rendelkező világba való sikeres átmenet talán a legfontosabb – és egyben reményteli és ijesztő – projekt az emberiség történetében. A siker korántsem garantált, és a tét (határtalan hátrányok és határtalan előnyök) remélhetőleg mindannyiunkat összefog.

Elképzelhetünk egy olyan világot, amelyben az emberiség olyan mértékben virágzik, amit valószínűleg még egyikünk sem tud teljes mértékben elképzelni. Reméljük, hogy egy ilyen virágzáshoz igazodó AGI-vel járulhatunk hozzá a világhoz.

Szerző: Szuhi Attila

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}

Cikkek a témában

április 19, 2023

Oké, kezdjük azzal, amit már tudsz. A mesterséges

április 18, 2023

Meta nyílt forráskódú AI projektet hozott létre, amely

április 5, 2023

A BIG-bench (Behavior of Intelligence in the General

április 5, 2023

A Google Research nemrégiben jelentette be a Pathways


INGYENES!

TÖLTSD LE A GOOGLE 100 SEO TANÁCSÁT

A Google 100 legfontosabb keresőoptimalizálási tanácsa!

>