Dirbtinio intelekto tyrinėtojas šią savaitę paliko darbą JAV įmonėje „Anthropic“ su paslaptingu įspėjimu apie pasaulio padėtį, o tai pažymėjo naujausią atsistatydinimo bangą dėl saugumo rizikos ir etinių dilemų.
X paskelbtame laiške Mrinankas Sharma rašė, kad jis pasiekė viską, ko tikėjosi dirbdamas dirbtinio intelekto saugos įmonėje, ir didžiuojasi savo pastangomis, tačiau baiminasi, kad „pasauliui gresia pavojus“ ne tik dėl dirbtinio intelekto, bet ir dėl „visos serijos tarpusavyje susijusių krizių“, pradedant bioterorizmu ir baigiant susirūpinimu dėl pramonės „atsargumo“.
Jis sakė jaučiantis pašaukimą rašyti, siekti poezijos laipsnio ir atsiduoti „drąsaus kalbėjimo praktikai“.
„Per visą savo laiką čia ne kartą mačiau, kaip sunku iš tikrųjų leisti, kad mūsų vertybės valdytų mūsų veiksmus“, – tęsė jis.
„Anthropic“ 2021 m. įkūrė atsiskyrusi buvusių „OpenAI“ darbuotojų grupė, kuri įsipareigojo sukurti labiau į saugą orientuotą požiūrį į dirbtinio intelekto kūrimą nei jos konkurentai.
Gaukite kasdienes nacionalines naujienas
Kartą per dieną gaukite svarbiausių dienos naujienų, politinių, ekonominių ir aktualijų antraštes.
Sharma vadovavo bendrovės AI apsaugos tyrimų grupei.
„Anthropic“ išleido ataskaitas, kuriose aprašoma savo produktų, įskaitant „Claude“, savo hibridinio pagrindo didelės kalbos modelį, saugą, ir reklamuojasi kaip įmonė, įsipareigojusi kurti patikimas ir suprantamas AI sistemas.
Praėjusiais metais bendrovė sulaukė kritikos, kai sutiko sumokėti 1,5 mlrd.
Sharmos atsistatydinimas įvyko tą pačią savaitę, kai OpenAI tyrėja Zoë Hitzig paskelbė apie savo atsistatydinimą New York Times esė, nurodydama susirūpinimą dėl bendrovės reklamos strategijos, įskaitant skelbimų talpinimą ChatGPT.
„Kažkada tikėjau, kad galiu padėti žmonėms, kuriantiems dirbtinį intelektą, išvengti problemų, kurias jis sukels. Šią savaitę patvirtinau, kad lėtai supratau, kad atrodo, kad OpenAI nustojo užduoti klausimus, prie kurių prisijungiau, kad padėčiau atsakyti”, – rašė ji.
„Žmonės pokalbių robotams pasakoja apie savo medicinines baimes, santykių problemas, įsitikinimus apie Dievą ir pomirtinį gyvenimą. Reklama, sukurta remiantis šiuo archyvu, suteikia galimybę manipuliuoti naudotojais tokiais būdais, kurių neturime suprasti, o tuo labiau užkirsti kelią.
Anthropic ir OpenAI neseniai įsivėlė į viešą ginčą po to, kai Anthropic paskelbė Super Bowl reklamą, kritikuojančią OpenAI sprendimą rodyti skelbimus ChatGPT.
2024 m. „OpenAI“ generalinis direktorius Samas Altmanas sakė, kad jis nemėgsta naudoti skelbimų ir juos panaudos kaip „paskutinę priemonę“.
Praėjusią savaitę jis ginčijo reklamos teiginį, kad skelbimų įterpimas buvo apgaulingas, pateikdamas ilgą įrašą, kuriame kritikuojamas Antropikas.
„Manau, kad „Anthropic doublespeak“ naudoja apgaulingą reklamą, kad kritikuotų teorinius apgaulingus skelbimus, kurie nėra tikri, tačiau „Super Bowl“ reklama nėra ten, kur to tikėčiau“, – rašė jis ir pridūrė, kad skelbimai ir toliau suteiks nemokamą prieigą, o tai, jo teigimu, sukuria „agentūrą“.
Konkuruojančių įmonių – Hitzig ir Sharma – darbuotojai išreiškė didelį susirūpinimą dėl pagrindinių principų, nustatytų siekiant išsaugoti dirbtinio intelekto vientisumą ir apsaugoti vartotojus nuo manipuliavimo, erozijos.
Hitzigas rašė, kad įmonėje jau gali įvykti potenciali „OpenAI principų erozija, siekiant maksimaliai padidinti įsitraukimą“.
Sharma sakė esąs susirūpinęs dėl AI gebėjimo „iškraipyti žmoniją“.
© 2026 Global News, Corus Entertainment Inc. padalinys.
