AI projektų saugos įvertinimas (infografija)


Šis garso įrašas generuojamas automatiškai. Praneškite mums, jei turite atsiliepimų.

Atsižvelgiant į naujausius apreiškimus, kad xAI Grok masiškai gamina neteisėtą turinį, kartais apie nepilnamečius, atrodo, kad tai yra savalaikė apžvalga.

„Future of Life Institute“ komanda neseniai atliko kai kurių populiariausių rinkoje AI įrankių, įskaitant „Meta AI“, „OpenAI’s ChatGPT“, „Grok“ ir kt., saugos apžvalgą.

Apžvalgoje buvo nagrinėjami šeši pagrindiniai elementai:

  • Rizikos įvertinimas – pastangos užtikrinti, kad įrankiu nebūtų galima manipuliuoti arba juo būtų galima padaryti žalos
  • Dabartinė žala – įskaitant duomenų saugumo riziką ir skaitmeninį vandenženklį
  • Saugos sistemos – procesas, kurį kiekviena platforma atlieka rizikai nustatyti ir spręsti
  • Egzistencinė sauga – ar projektas stebimas dėl netikėtų programavimo pokyčių
  • Valdymas – bendrovės lobizmas dėl AI valdymo ir AI saugos taisyklių
  • Dalijimasis informacija – sistemos skaidrumas ir įžvalga, kaip ji veikia

Remiantis šiais šešiais elementais, ataskaitoje kiekvienam AI projektui buvo suteiktas bendras saugos balas, kuris atspindi platesnį įvertinimą, kaip kiekvienas valdo vystymosi riziką.

Visual Capitalist komanda išvertė šiuos rezultatus į žemiau esančią infografiką, kuri suteikia šiek tiek papildomos minties apie AI plėtrą ir kur mes galime eiti (ypač Baltuosiuose rūmuose, kurie siekia pašalinti galimas DI plėtros kliūtis).

AI saugos infografija



Source link

Draugai: - Marketingo paslaugos - Teisinės konsultacijos - Skaidrių skenavimas - Fotofilmų kūrimas - Karščiausios naujienos - Ultragarsinis tyrimas - Saulius Narbutas - Įvaizdžio kūrimas - Veidoskaita - Nuotekų valymo įrenginiai -  Padelio treniruotės - Pranešimai spaudai -