AI žalos reikia atsižvelgti į besikeičiančius reguliavimo metodus


Kai AI plėtros lenktynės kyla, mes gauname daugiau galimų AI plėtros reguliavimo metodų rodiklių, kurie gali kliudyti tam tikriems AI projektams, kartu užtikrinant didesnį skaidrumą vartotojams.

Kuris, atsižvelgiant į AI sukurtos medžiagos riziką, yra geras dalykas, tačiau tuo pat metu nesu tikras, kad mes turėsime deramą patikrinimą, kurio iš tikrųjų reikalauja AI, kad užtikrintume, jog mes įgyvendiname tokius įrankius labiausiai apsauginiu ir galiausiai naudingiausiu būdu.

Duomenų kontrolė yra pirmasis galimas apribojimas, nes kiekviena įmonė, kuri sukuria AI projektus, susiduria su įvairiais teisiniais iššūkiais, atsižvelgiant į jų autorių teisių saugomos medžiagos naudojimą savo pagrindiniams modeliams kurti.

Praėjusią savaitę grupė prancūzų leidyklų pradėjo teisinius veiksmus prieš „Meta“ dėl autorių teisių pažeidimo, prisijungdama prie JAV autorių kolektyvo, naudodamiesi jų nuosavybės teisėmis prieš technologijų milžiną.

Ir jei kuris nors iš šių atvejų gauna didelę išmoką, galite lažintis, kad kiekviena kita pasaulio leidybos įmonė pradės panašius veiksmus, dėl kurių „Zuck and Co.“ gali būti skiriamos didžiulės baudos, remiantis jų pradinių LLAMA LLM modelių kūrimo procesu.

Ir tai ne tik meta: „Openai“, „Google“, „Microsoft“ ir kiekvienas kitas AI kūrėjas susiduria su teisiniais iššūkiais dėl autorių teisių apsaugotos medžiagos naudojimo, nes tai yra platus susirūpinimas dėl teksto turinio vagystės, kad galėtų patekti į šiuos modelius.

Tai gali sukelti naują teisinį precedentą, susijusį su duomenų naudojimu, kuris galiausiai galėtų palikti socialines platformas kaip LLM plėtros lyderiai, nes jie bus vieninteliai, turintys pakankamai patentuotų duomenų tokiems modeliams maitinti. Tačiau jų galimybes tokį parduoti taip pat apribos jų vartotojų susitarimai ir duomenų išlygos, pastatytos po „Cambridge Analytica“ skandalo (taip pat ES reglamente). Tuo pat metu, kaip pranešama, „Meta“ pasiekė „Pirat“ knygas ir informaciją, kad sukurtų LLM, nes esamas duomenų rinkinys, pagrįstas „Facebook“ ir IG vartotojo žinutėmis, nebuvo tinkama tokiai plėtrai.

Tai gali baigtis didele kliūtimi plėtojant AI JAV, nes Kinijos kibernetinio saugumo taisyklės jau leidžia Kinijos vyriausybei prieiti ir panaudoti Kinijos organizacijų duomenis, jei ir kaip jos pasirenka.

Štai kodėl JAV įmonės ginčijasi dėl atlaisvintų duomenų naudojimo apribojimų, kai „Openai“ tiesiogiai ragina vyriausybę leisti naudoti autorių teises apsaugotus duomenis AI mokymuose.

Štai kodėl tiek daug technologijų lyderių norėjo jaukiai iki Trumpo administracijos, nes tai yra platesnių pastangų laimėti šį ir susijusių technologijų sandorių palankumą. Nes jei JAV kompanijos susiduria su apribojimais, Kinijos paslaugų teikėjai laimės platesnėse AI lenktynėse.

Tačiau tuo pat metu intelektinės autorių teisės yra esminis dalykas, todėl leidžiama naudoti jūsų darbą treniruotis sistemoms, skirtoms jūsų menui ir (arba) pašaukimui pasenusiam, atrodo neigiamas kelias. Taip pat, pinigai. Kai reikia uždirbti pinigų, galite lažintis, kad korporacijos pasinaudos tokiais (žr.: Teisininkai, šokinėjantys į „YouTube“ autorių teisių pretenzijas), taigi, atrodo, tai yra apskaita rūšis, apibrėžianti AI lenktynių ateitį.

Tuo pačiu metu daugiau regionų dabar įgyvendina įstatymus dėl AI atskleidimo, kai Kinija praėjusią savaitę prisijungia prie ES ir JAV įgyvendindami reglamentus, susijusius su „sintetinio turinio ženklinimu“.

Daugelis socialinių platformų jau yra šioje srityje, naudodamiesi „Facebook“, „Instagram“, „Threads“ ir „Tiktok“ – visos AI atskleidimo taisyklės, kurias „Pinterest“ taip pat neseniai pridūrė. „LinkedIn“ taip pat turi AI aptikimą ir galioja etiketės (tačiau nėra savanoriško žymėjimo taisyklių), o „Snapchat“ taip pat pažymi AI vaizdus, ​​sukurtus savo įrankiuose, tačiau neturi trečiųjų šalių turinio taisyklių.

(Pastaba: X dar 2020 m. Kūrė AI atskleidimo taisykles, tačiau oficialiai to neįgyvendino).

Tai taip pat yra svarbi raida, nors, kaip ir daugelyje AI pamainų, mes matome, kad tai vyksta retrospektyviai, ir pavieniais būdais, dėl kurių įpareigojimas tokioms platformoms palieka, o ne įgyvendinant daugiau universaliųjų taisyklių ir procedūrų.

Kuris, vėlgi, yra geresnis naujovėms, senajame „Facebook“ „greitai judėk ir sugadink dalykų“ prasme. Ir atsižvelgiant į Baltųjų rūmų technologijų lyderių antplūdį, vis dažniau tai bus požiūris į priekį.

Tačiau aš vis dar jaučiuosi, kad inovacijų keitimas kyla didesnės žalos rizika, ir kai žmonės vis labiau pasitiki AI įrankiais, kad galėtų mąstyti dėl jų, o AI vaizdai tampa labiau įsitvirtinę šiuolaikiniame interaktyviame procese, mes matome masinio AI priėmimo ir naudojimo pavojų įmonių sėkmei.

Ar turėtume labiau susirūpinti dėl AI žalos?

Aš turiu omenyje, kad daugiausia informacijos apie žiniatinklio informaciją iš esmės yra tik mūsų įprasto proceso pakeitimas. Bet yra rizika. Vaikai jau perkelia kritinį mąstymą dėl AI robotų, žmonės plėtoja ryšius su AI sukurtais personažais (kurie taps labiau paplitę socialinėse programose), tuo tarpu milijonai yra apgaudinėjami dėl AI sukurtų badaujančių vaikų, vienišų senų žmonių, novatoriškų vaikų iš atokių kaimų ir dar daugiau.

Žinoma, paskutiniuose JAV rinkimuose nematėme numatomo politiškai motyvuoto AI sukuriamo turinio antplūdžio, tačiau tai nereiškia, kad AI sukurtas turinys neturi didelio poveikio kitais būdais, o žmonių nuomones ir net jų interaktyvų procesą. Čia kyla pavojų, o žala jau yra įterpta, tačiau mes juos pamirštame, nes vadovai nenori, kad kitos tautos greičiau sukurtų geresnius modelius.

Tas pats nutiko su socialine žiniasklaida, leidžiančia milijardams žmonių naudotis įrankiais, kurie nuo to laiko buvo susieti su įvairiomis žalos formomis. Ir dabar mes bandome sumažinti reikalus, kai įvairūs regionai siekia uždrausti paaugliams iš socialinės žiniasklaidos, kad apsaugotų juos nuo tokių. Tačiau mes dabar esame du dešimtmečiai ir tik per pastaruosius 10 metų buvo kokių nors pastangų spręsti socialinės žiniasklaidos sąveikos pavojus.

Ar iš to nieko neišmokome?

Akivaizdu, kad ne todėl, kad vėl judėti greitai ir laužyti dalykus, nesvarbu, kokie šie dalykai gali būti, yra kapitalistinis požiūris, kurį verčia korporacijos, kurios labiausiai naudos iš masinio pasirinkimo.

Tai nereiškia, kad AI yra bloga, tai nereiškia, kad neturėtume norėti naudoti generuotus AI įrankius, kad supaprastintume įvairius procesus. Tačiau aš sakau, kad šiuo metu siūlomas AI veiksmų planas iš Baltųjų rūmų, ir kitos tokios iniciatyvos, kaip IT, turėtų atsižvelgti į tokią riziką kaip reikšmingi AI plėtros veiksniai.

Jie to nepadarys. Visi tai žinome, ir per dešimt metų mes ieškosime, kaip pažaboti žalą, kurią sukelia generatyviniai AI įrankiai, ir kaip mes ribojame jų naudojimą.

Tačiau pagrindiniai žaidėjai laimės, todėl taip pat tikiuosi, kad galiausiai visi šie autorių teisių teiginiai taip pat išnyks greitoms naujovėms.

Kadangi AI hype yra tikras, o AI pramonė taps 1,3 trilijono dolerių vertės rinka.

Dėl to kritinis mąstymas, interaktyvūs gebėjimai, psichinė sveikata – visa tai daro įtaką mastu.





Source link

Draugai: - Marketingo paslaugos - Teisinės konsultacijos - Skaidrių skenavimas - Fotofilmų kūrimas - Karščiausios naujienos - Ultragarsinis tyrimas - Saulius Narbutas - Įvaizdžio kūrimas - Veidoskaita - Nuotekų valymo įrenginiai -  Padelio treniruotės - Pranešimai spaudai -