Reaguodama į didėjantį susirūpinimą dėl galimos rizikos, susijusios su pažangiais dirbtinio intelekto (DI) modeliais, “OpenAI” atidėjo naujos kartos GPT-5 kalbos modelio mokymą. Sprendimas priimtas po to, kai organizacija pripažino, kad kuriant dirbtinio intelekto sistemas, galinčias kelti grėsmę žmonijai, reikia elgtis atsargiai.
Per “Indian Economic Times” surengtą konferenciją “OpenAI” generalinis direktorius Samas Altmanas kalbėjo apie dabartinę GPT-5 būklę.
Prieš paleisdami šį modelį turime daug nuveikti. Dirbame su naujomis idėjomis, kurios, mūsų manymu, yra tam būtinos, tačiau dar nesame priartėję prie paleidimo.
Pareiškime pažymima, kad “OpenAI” siekia atsižvelgti į visuomenei ir ekspertų bendruomenei rūpimus klausimus.
Technologijų pasaulis yra susirūpinęs dėl dirbtinio intelekto keliamos grėsmės
Kovo mėn. daugiau nei tūkstantis žmonių, tarp kurių buvo ir tokių žymių veikėjų kaip Elonas Muskas ir Steve’as Wozniakas, pasirašė atvirą laišką, kuriame dirbtinio intelekto laboratorijos raginamos bent šešis mėnesius nebetreniruoti pažangesnių nei GPT-4 sistemų. Nors Altmanas pažymėjo, kad laiške trūksta techninės informacijos, jis pabrėžė, kad “OpenAI” nepradėjo mokyti GPT-5 ir artimiausiu metu neplanuoja to daryti.
Siekdamas išsklaidyti nuogąstavimus dėl galimos rizikos, susijusios su dirbtiniu intelektu, Altmanas pabrėžė, kad “OpenAI” yra įsipareigojusi atlikti išsamų technologijos vertinimą. Organizacija bendradarbiauja su išorės ekspertais, imituoja plataus masto kibernetines atakas ir atlieka griežtus saugumo testus. Altmanas taip pat priminė auditorijai, kad net ir užbaigus GPT-4, prireikė dar šešių mėnesių, kol platforma buvo paskelbta visuomenei. Šis terminas rodo, kad “OpenAI” yra įsipareigojusi kruopščiai vertinti ir taikyti saugumo priemones.