„60 minučių“ pateikė šokiruojančiai klaidingą teiginį apie „Google“ AI pokalbių robotą

Nuo tada, kai „OpenAI“ išleido ChatGPT pasaulyje, matėme, kad tam reikia žmonių, kuriais nepatikėtumėte.

Kai kurie žmonės teigė, kad pokalbių robotai turi pažadintą darbotvarkę. Senatorius Chrisas Murphy (D-CT) tviteryje paskelbė, kad ChatGPT „mokė“ pažangiosios chemijos. Net patyrę technologijų žurnalistai parašė istorijas apie tai, kaip tai veikia Pokalbių robotas juos įsimylėjo. Atrodo, kad pasaulis į dirbtinį intelektą reaguoja taip pat, kaip urviniai žmonės, greičiausiai, pirmą kartą pamatę ugnį: su visišku sumišimu ir nenuosekliu burbuliavimu.

Vienas iš naujausių pavyzdžių kilęs iš 60 minučių, kuris metė savo balsą į ringą su nauju epizodu, skirtu dirbtinio intelekto naujovėms, kuris sekmadienį rodomas per CBS. Epizode buvo interviu su tokiais žmonėmis kaip Sundar Pichai, „Google“ generalinis direktorius, ir buvo įtrauktas abejotino turinio. Pretenzijos apie vieną iš įmonės didžiųjų kalbos modelių (LLM).

Segmentas yra apie atsirandantį elgesį, kuris apibūdina netikėtą AI sistemos šalutinį poveikį, kurio nebūtinai norėjo modelio kūrėjai. Mes jau matėme, kad kituose naujausiuose AI projektuose atsiranda naujas elgesys. Pavyzdžiui, praėjusią savaitę internete paskelbtame tyrime mokslininkai neseniai naudojo ChatGPT, kad sukurtų skaitmenines asmenybes su tikslais ir pagrindais. Jie pažymi, kad sistema atlieka įvairius iškylančius veiksmus, pavyzdžiui, dalijasi nauja informacija iš vieno veikėjo kitam ir netgi užmezga santykius tarpusavyje – ko autoriai iš pradžių neplanavo sistemoje.

Kylantis elgesys tikrai yra tema, kurią verta aptarti naujienų programoje. kur yra 60 minučių Tačiau vaizdo įrašas pasisuka, kai sužinome apie teiginius, kad „Google“ pokalbių robotas iš tikrųjų sugebėjo išmokyti kalbos, kurios anksčiau nemokėjo, kai buvo paklaustas ta kalba. „Pavyzdžiui, viena Google AI programa pati adaptavosi po to, kai jai buvo liepta tai daryti Bangladešo kalba, kurios ji nebuvo išmokyta“, – vaizdo įraše sakė CBS News reporteris Scottas Pelley.

READ  Numatytieji techniniai nustatymai, kuriuos reikia nedelsiant išjungti

Pasirodo, ji buvo visiška BS. Robotas ne tik negalėjo išmokti užsienio kalbos, kurios „niekada nemokė mokėti“, bet ir neišmoko naujo įgūdžių. Visas klipas paskatino dirbtinio intelekto tyrėjus ir ekspertus sukritikuoti naujienų laidos klaidinantį kadrą „Twitter“.

„Tikrai tikiuosi, kad kai kurie žurnalistai peržiūrės visą @60Minute segmentą „Google Bard“ kaip atvejo tyrimą, kaip *ne* neaprėpti AI“, – sakė Melanie Mitchell, dirbtinio intelekto tyrinėtoja ir Santa Fė instituto profesorė. tviteryje parašė jis.

„Nustok magiškai galvoti apie technologijas! #AI negali reaguoti bengalų kalba, nebent mokymo duomenys buvo užkrėsti bengalų kalba arba mokomi kalba, kuri sutampa su bengalų kalba, pvz., asamų, orijų ar hindi“, – sakė p. Aleksas O. Masačusetso technologijos instituto mokslininkas, Pridėta kitame įraše.

Tai nieko neverta 60 minučių Klipe tiksliai nenurodyta, kokį dirbtinį intelektą jie naudojo. Tačiau CBS atstovas „The Daily Beast“ sakė, kad šis segmentas buvo ne Bardo diskusija, o atskira dirbtinio intelekto programa, vadinama PaLM, kurios pagrindinė technologija vėliau buvo integruota į Bardą.

Priežastis, dėl kurios klipas taip nuliūdino šiuos ekspertus, yra ta, kad jame nepaisoma tikrovės, ką gali padaryti generatyvus AI, ir su ja žaidžiama. Ji negali „mokyti“ savęs kalbos, jei iš pradžių neturi prieigos prie jos. Tai būtų tarsi bandymas išmokti save mandarinų kalbos, bet tai išgirdote tik po to, kai kas nors kartą jūsų paklausė mandarinų kalbos.

Galų gale, kalba yra neįtikėtinai sudėtinga – su niuansais ir taisyklėmis, kurioms suprasti ir bendrauti reikia neįtikėtino konteksto. Netgi pažangiausia LLM negali visa tai tvarkyti ir išmokti su keliais raginimais.

PaLM jau mokomasi su bengalų kalba, dominuojančia Bangladeše. Margaret Mitchell (nėra santykių), AT HuggingFace paleisties laboratorijos ir anksčiau „Google“ tyrėja, tai paaiškino „Twitter“ tema Pateikite argumentą, kodėl 60 minučių suklydo.

READ  „Apple“ WWDC pristatė visiškai naują „Home“ programą

Mitchell pažymėjo, kad 2022 m. demonstracijoje Google parodė, kad PaLM gali bendrauti ir reaguoti į raginimus bengalų kalba. į Popierius už PaLM Duomenų lape paaiškėjo, kad modelis iš tikrųjų buvo išmokytas kalba, kurioje yra maždaug 194 milijonai simbolių bengalų abėcėlėje.

Taigi jis stebuklingai nieko neišmoko per vieną raginimą. Kalbą jis jau mokėjo.

Neaišku, kodėl „Google“ generalinis direktorius Pichai susėdo į pokalbį ir leido kaltinimams nepaisyti. („Google“ neatsakė į prašymus komentuoti.) Nuo tada, kai buvo parodytas serialas, jis tylėjo, nors ekspertai nurodė klaidinančius ir melagingus klipe pateiktus teiginius.

„Twitter“ tinkle Margaret Mitchell Pasiūlymas Priežastis gali būti dėl to, kad „Google“ lyderystė nežino, kaip veikia jos produktai, ir leido prastiems pranešimams išsilieti į dabartinę ažiotažą apie generatyvųjį AI.

„Įtariu [Google executives] Aš tiesiog nesuprantu, kaip tai veikia, Mitchell čiulbėti. „Tai, ką parašiau aukščiau, jiems greičiausiai yra naujiena. Ir jie yra motyvuoti nesuprasti (KALBĖKITE AKIS Į ŠĮ DUOMENŲ LAPĄ!!).”

Antroji vaizdo įrašo pusė taip pat gali būti vertinama kaip problemiška, nes Pichai ir Billy aptaria Bardo sukurtą apysaką, kuri „skambėjo labai žmogiškai“, todėl abu vyrai šiek tiek sukrėtė.

Tiesa ta, kad šie produktai nėra stebuklingi. Jie nesugeba būti „žmogumi“, nes nėra žmonės. Jie yra teksto prognozės, kaip ir jūsų telefone, išmokyti sugalvoti geriausius žodžius ir frazes, kurios seka žodžių seriją frazėse. Sakydami, kad jie yra, jie gali suteikti tokią galią, kuri gali būti neįtikėtinai pavojinga.

Galų gale, žmonės gali naudoti šias generuojančias AI sistemas, pavyzdžiui, skleisti dezinformaciją. Jau matėme, kaip tai manipuliuoja žmonių įvaizdžiais ir net jų balsais.

Pats pokalbių robotas gali pakenkti, jei duoda šališkus rezultatus – ką jau matėme, pavyzdžiui, ChatGPT ir Bard. Žinodami šių pokalbių robotų polinkį haliucinuoti ir sugalvoti rezultatus, jie gali skleisti klaidingą informaciją nieko neįtariantiems vartotojams.

READ  Temos leis jums perkelti patvirtintus įrašus į sklaidos kanalo apačią

Tyrimai tai patvirtina. Neseniai atliktas tyrimas Paskelbta Moksliniai pranešimai Jis nustatė, kad žmonių atsakymus į etinius klausimus gali lengvai paveikti „ChatGPT“ pateikti argumentai – ir netgi tai, kad vartotojai labai neįvertino, kiek juos paveikė robotai.

Klaidinantys teiginiai apie 60 minučių Iš tikrųjų tai tik didesnio skaitmeninio raštingumo poreikio požymis, kai mums jo labiausiai reikia. Daugelis AI ekspertų teigia, kad dabar labiau nei bet kada žmonės turi žinoti, ką dirbtinis intelektas gali ir ko negali. Šie pagrindiniai faktai apie robotiką turi būti veiksmingai perduoti platesnei auditorijai.

Didžiausią atsakomybę už saugesnės ir labiau išsilavinusios dirbtinio intelekto ateitį prisiima žmonės, turintys didžiausias platformas ir garsiausius balsus (t. y. žiniasklaida, politikai ir „Big Tech“ vadovai). Jei to nepadarysime, galime baigti kaip anksčiau minėti urviniai žmonės, žaisti su ugnies magija ir susideginti.

Parašykite komentarą

El. pašto adresas nebus skelbiamas. Būtini laukeliai pažymėti *