OpenAI teigia, kad Rusijos ir Izraelio grupės naudojo savo įrankius dezinformacijai skleisti | OpenAI

Ketvirtadienį OpenAI paskelbė savo pirmąją ataskaitą apie tai, kaip jos dirbtinio intelekto įrankiai naudojami slapto poveikio operacijose, ir atskleidė, kad bendrovė sutrikdė dezinformacijos kampanijas Rusijoje, Kinijoje, Izraelyje ir Irane.

Piktybiški veikėjai naudojo bendrovės generuojamuosius dirbtinio intelekto modelius reklaminiam turiniui kurti ir platinti socialinės žiniasklaidos platformose bei jų turinį išversti į skirtingas kalbas. Nė viena kampanija nesulaukė traukos ir nepasiekė didelės auditorijos, Anot pranešimo.

Kadangi generatyvusis dirbtinis intelektas tapo klestinčia pramone, mokslininkai ir įstatymų leidėjai plačiai susirūpinę dėl jos galimybės padidinti dezinformacijos internete kiekį ir kokybę. Dirbtinio intelekto įmonės, tokios kaip „OpenAI“, kuri gamina „ChatGPT“, bandė išsklaidyti šias problemas ir kliudyti savo technologijoms, o rezultatai buvo nevienodi.

39 puslapių OpenAI ataskaita yra viena iš išsamiausių AI įmonės ataskaitų apie jos programinės įrangos naudojimą reklamai. „OpenAI“ teigė, kad jos tyrėjai rado ir užblokavo paskyras, susijusias su penkiomis slapto poveikio operacijomis per pastaruosius tris mėnesius, kurios buvo iš vyriausybės ir privačių subjektų.

Rusijoje dvi operacijos kūrė ir platino turinį, kritikuojantį JAV, Ukrainą ir kelias Baltijos šalis. Viena operacija naudojo OpenAI modelį, kad būtų derinamas kodas ir sukurtas robotas, kuris buvo įdiegtas „Telegram“. Kinijos įtakos operacija sukūrė tekstą anglų, kinų, japonų ir korėjiečių kalbomis, kuriuos aktyvistai paskelbė „Twitter“ ir „Medium“.

Irano atstovai parengė ištisus straipsnius, puolančius JAV ir Izraelį, ir išvertė juos į anglų ir prancūzų kalbas. Izraelio politinė bendrovė „Stoic“ valdė netikrų socialinių tinklų paskyrų tinklą, kuriame buvo kuriamas įvairus turinys, įskaitant įrašus, kuriuose JAV studentų protestai prieš Izraelio karą Gazoje kaltinami antisemitiškumu.

Daugelis dezinformacijos skleidėjų, kuriuos OpenAI uždraudė iš savo platformos, jau buvo žinomi tyrėjams ir valdžios institucijoms. JAV iždas Dviems rusams skirtos sankcijos Kovo mėnesį jie tariamai prisidėjo prie vienos iš OpenAI aptiktų kampanijų, o „Meta“ šiais metais taip pat uždraudė „Stoic“ iš savo platformos, nes pažeidė jos politiką.

READ  Izraelio kariuomenė paskelbė dviejų kankinių karių vardus

Ataskaitoje taip pat pabrėžiama, kaip produktyvus dirbtinis intelektas gali būti įtrauktas į dezinformacijos kampanijas, siekiant pagerinti tam tikrus turinio kūrimo aspektus, pavyzdžiui, skelbti įtikinamesnius įrašus užsienio kalbomis, tačiau tai nėra vienintelė propagandos priemonė.

„Visose šiose operacijose tam tikru mastu buvo naudojamas dirbtinis intelektas, tačiau nė viena jo nenaudojo išskirtinai“, – teigiama pranešime. „Vietoj to, dirbtinio intelekto sukurta medžiaga buvo tik vienas iš daugelio jų paskelbto turinio tipų, kartu su tradiciniais formatais, tokiais kaip ranka rašyti tekstai ar internete nukopijuoti memai.

Nors nė viena iš kampanijų nepadarė jokio pastebimo poveikio, jų technologijų naudojimas rodo, kaip kenkėjiški veikėjai nustatė, kad generatyvus AI leidžia jiems padidinti propagandos gamybą. Dabar galima efektyviau rašyti, versti ir skelbti turinį naudojant AI įrankius, sumažinant dezinformacijos kampanijų kūrimo lygį.

Per pastaruosius metus kenkėjiški veikėjai naudojo generatyvųjį dirbtinį intelektą viso pasaulio šalyse, siekdami paveikti politiką ir viešąją nuomonę. Suklastotas garsas, dirbtinio intelekto sukurti vaizdai ir teksto kampanijos buvo naudojamos siekiant sutrikdyti rinkimų kampanijas, didinant spaudimą tokioms įmonėms kaip OpenAI apriboti savo įrankių naudojimą.

OpenAI pareiškė, kad planuoja periodiškai skelbti panašias ataskaitas apie slapto poveikio operacijas, be to, pašalinti paskyras, kurios pažeidžia jos politiką.

Parašykite komentarą

El. pašto adresas nebus skelbiamas. Būtini laukeliai pažymėti *