A technikai titánok hat hónapos mesterséges intelligencia-szünetet kérnek, hogy rájöjjenek, milyen szörnyet szabadítottak ki

A technikai titánok hat hónapos mesterséges intelligencia-szünetet kérnek, hogy rájöjjenek, milyen szörnyet szabadítottak ki
 elon pézsma

Vitaly Sosnovskiy/Shutterstock Steve Jurvetson/Flickr (CC BY SA 2.0) (Engedélyezett) remix: Jason Reed



A technikai titánok hat hónapos mesterséges intelligencia-szünetet kérnek, hogy rájöjjenek, milyen szörnyet szabadítottak ki

Azt akarják, hogy minden kétséget kizáróan biztonságosnak minősüljön.

A technológiai világ legnagyobb nevei által aláírt nyílt levél a mesterséges intelligencia (AI) fejlesztésének szüneteltetését követeli, mivel attól tartanak, hogy a technológia „mélységes kockázatot jelenthet a társadalomra és az emberiségre”.



A Future of Life Institute által kiadott szervezet, amelynek kinyilvánított célja, hogy „elterelje a transzformatív technológiákat a szélsőséges, nagy léptékű kockázatoktól”, a levél több mint 1100 aláírást sikerült vonzania olyan személyektől, mint a Twitter vezérigazgatója, Elon Musk és az Apple munkatársai. – Steve Wozniak alapítója.



A levél konkrétan arra szólítja fel a világ összes mesterséges intelligencia-laboratóriumát, hogy „azonnal legalább 6 hónapra szüneteltesse a GPT-4-nél erősebb mesterségesintelligencia-rendszerek képzését”, az OpenAI cég által nemrégiben frissített és kiadott nagy multimodális nyelvi modellt.

„Erőteljes AI-rendszereket csak akkor szabad kifejleszteni, ha biztosak vagyunk abban, hogy hatásaik pozitívak lesznek, és kockázataik kezelhetők lesznek” – áll a levélben. „Ennek a bizalomnak jól indokoltnak kell lennie, és a rendszer potenciális hatásának mértékével növekednie kell.”



Ha egy ilyen szünetet nem lehet elérni, a levél így folytatódik: „a kormányoknak közbe kell lépniük, és moratóriumot kell bevezetniük”.

A további prominens aláírók közé tartozik Andrew Yang volt elnökjelölt, Jaan Tallinn, a Skype társalapítója, valamint az AI-kutatás számos szakértője. Tekintettel arra, hogy a levél nyilvánosan aláírható, a felhasználókat arra kérik, hogy óvatosan kezeljék a névjegyzéket.

Amint a levélben szerepel, Az OpenAI nemrég megegyezett hogy valószínűleg fontos lenne valamikor független felülvizsgálatot kapni a jövőbeli rendszerek képzése előtt. Az AI-cég azt is javasolta, hogy szükség lehet egy korlátra az „új modellek létrehozásához használt számítások növekedési ütemére” vonatkozóan.

A Future of Life Institute azzal érvel, hogy most van itt az ideje az ilyen intézkedéseknek.

'Az AI-laboratóriumoknak és a független szakértőknek ezt a szünetet arra kell használniuk, hogy közösen dolgozzanak ki és hajtsanak végre megosztott biztonsági protokollokat a fejlett mesterségesintelligencia-tervezés és -fejlesztés érdekében, amelyeket szigorúan auditálnak és független külső szakértők felügyelnek' - folytatódik a levél. 'Ezeknek a protokolloknak biztosítaniuk kell, hogy a hozzájuk csatlakozó rendszerek minden kétséget kizáróan biztonságosak legyenek.'

Musk, aki a Future of Life Institute külső tanácsadója, segített az OpenAI társalapítójaként, mielőtt lemondott a vállalat igazgatóságáról, mert nézeteltérések voltak a vállalat irányításával.

„Az OpenAI-t nyílt forráskódú (ezért neveztem el „Nyílt AI”-nak), non-profit vállalatként hozták létre, hogy a Google ellensúlyaként szolgáljon, de mára zárt forráskódú, maximális profitot termelő vállalattá vált, amelyet ténylegesen a Microsoft irányít. ”, Musk tweetelt múlt hónap. – Egyáltalán nem az, aminek szántam.

A levélnek valószínűleg nem lesz jelentős hatása, legalábbis egyelőre, az AI fejlesztésére, mivel a nagy technológiai vállalatok az OpenAI-val és a ChatGPT-vel való versenyre törekednek.

 Napi pont ikonra  web_crawlr Feltérképezzük az internetet, hogy ne kelljen. Iratkozzon fel a Daily Dot hírlevélre, hogy minden nap az internet legjobb és legrosszabb tartalmait kapja postafiókjába. Hadd olvassam el először