Cercetătorul DeepMind susține că noua inteligență artificială ar putea duce la AGI, spune că „jocul s-a încheiat”

Potrivit dr. Nando de Freitas, investigator principal la DeepMind de la Google, umanitatea este aparent pe punctul de a rezolva inteligența generală artificială (AIG) în timpul vieții noastre.

Ca răspuns la un articol de opinie scris de dumneavoastră cu adevărat, omul de știință a postat un thread pe Twitter care a început cu ceea ce este poate cea mai îndrăzneață declarație pe care am văzut-o de la oricine de la DeepMind cu privire la progresul său actual. către IAG:

Părerea mea: Acum este totul despre scară! Jocul s-a terminat!

Salutări umanoide

Abonați-vă acum pentru o recapitulare săptămânală a poveștilor noastre preferate cu inteligență artificială

Iată textul integral al thread-ului lui de Freitas:

O opinie a cuiva. Părerea mea: Acum este totul despre scară! Jocul s-a terminat! Este vorba despre a face aceste modele mai mari, mai sigure, mai eficiente din punct de vedere computațional, mai rapide la eșantionare, memorie mai inteligentă, mai multe modalități, DATE INOVAtoare, on/offline, … 1/N

Rezolvarea acestor provocări de scalare este ceea ce va oferi AGI. Sunt necesare cercetări care să se concentreze pe aceste probleme, de exemplu S4 pentru o memorie mai mare. Filosofia simbolurilor nu este. Simbolurile sunt instrumente în lume și rețelele mari nu au nicio problemă să le creeze și să le manipuleze 2/n

Ultimul, dar nu cel din urmă, [OpenAI co-founder Ilya Sutskever] @ilyasut are dreptate [cat emoji]

Rich Sutton are și el dreptate, dar lecția AI nu este amară, ci mai degrabă dulce. Am învățat-o de la [Google researcher Geoffrey Hinton] @geoffreyhinton acum zece ani. Geoff a prezis previzibilul cu o claritate uluitoare.

Sunt multe de despachetat în acest thread, dar „totul este despre scară acum” este o afirmație destul de greu de interpretat greșit.

Cum am venit aici?

DeepMind a publicat recent o lucrare de cercetare și a publicat o postare pe blog despre noul său sistem AI multimodal. Numit „Gato”, sistemul este capabil să îndeplinească sute de sarcini diferite, de la controlul unui braț robot până la scrierea de poezii.

Compania l-a numit un sistem „generalist”, dar nu a mers atât de departe încât să spună că este în vreun fel capabil de inteligență generală – puteți citi mai multe despre ce înseamnă asta aici.

Este ușor să confundați ceva de genul Gato cu AGI. Diferența este însă că o inteligență generală ar putea învăța să facă lucruri noi fără o pregătire prealabilă.

În opinia mea, l-am comparat pe Gato cu o consolă de jocuri:

Capacitatea lui Gato de a face mai multe sarcini este mai mult ca o consolă de jocuri video care poate stoca 600 de jocuri diferite decât un joc pe care îl poți juca în 600 de moduri diferite. Nu este o IA generală, este o grămadă de modele înguste pre-antrenate bine grupate.

Nu este un lucru rău, dacă asta cauți. Dar pur și simplu nu există nimic în lucrarea de cercetare care îl însoțește pe Gato care să indice că acesta este chiar un ghiont în direcția corectă pentru AGI, să nu mai vorbim de o piatră de temelie.

Doctor de Freitas nu este de acord. Nu este surprinzător, dar ceea ce mi s-a părut șocant a fost al doilea tweet din thread-ul lor:

Partea de acolo care se ocupă de „filozofia simbolului” ar fi putut fi scrisă ca răspuns direct la articolul meu de opinie. Dar pe cât de siguri că criminalii din Gotham știu ce înseamnă Bat Signal, cei care urmăresc lumea AI știu că menționarea împreună a simbolurilor și a AGI-ului este o modalitate sigură de a-l invoca pe Gary Marcus.

Între Gary

Marcus, un om de știință de renume mondial, autor și fondator și CEO al Robust.AI, și-a petrecut ultimii câțiva ani pledând pentru o nouă abordare a AGI. El crede că întregul domeniu trebuie să-și schimbe metodologia de bază pentru construirea AGI și a scris o carte bestselleră în acest sens numită „Rebooting AI” cu Ernest Davis.

El a dezbătut și a discutat ideile sale cu toată lumea, de la Yann LeCun de la Facebook până la Yoshua Bengio de la Universitatea din Montreal.

Și, pentru ediția inaugurală a buletinului său informativ Substack, Marcus a făcut ecou declarațiile lui de Freitas în ceea ce a echivalat cu o expresie înflăcărată (dar respectuoasă) de respingere.

Marcus numește hiperscalabilitatea modelelor AI o cale percepută către AGI „Scaling Uber Alles” și se referă la aceste sisteme ca încercări de „inteligență alternativă” – spre deosebire de artificial inteligență care încearcă să imite inteligența umană.

Despre explorarea DeepMind, el scrie:

Nu este nimic inerent în neregulă în a da în judecată Alt Intelligence.

Alt Intelligence reprezintă o intuiție (sau mai exact, o familie de intuiții) cu privire la modul de a construi sisteme inteligente și, din moment ce nimeni nu știe încă cum să construiască un tip de sistem care să se potrivească cu flexibilitatea și ingeniozitatea inteligenței umane, este cu siguranță un joc corect pentru oameni. pentru a urmări mai multe ipoteze diferite despre cum să ajungem acolo.

Nando de Freitas este la fel de direct în apărarea acestei ipoteze, pe care o voi numi Scaling-Uber-Alles. Desigur, acest nume, Scaling-Uber-Alles, nu este tocmai corect.

De Freitas știe foarte bine (cum voi explica mai jos) că nu poți doar să faci modele la scară și să speri la succes. Oamenii au făcut multă scalare în ultimul timp și au obținut mari succese, dar s-au lovit și de unele obstacole.

Marcus continuă să descrie problema de neînțeles care afectează modelele gigantice ale industriei AI.

În esență, Marcus pare să spună că, indiferent cât de minunate și uimitoare sunt sistemele precum DALL-E de la OpenAI (un model care generează imagini personalizate din descrieri) sau Gato de la DeepMind, acestea sunt încă incredibil de fragile.

El scrie:

Noul star de la DeepMind, Gato, este capabil de fapte cross-modale nemaivăzute până acum în AI, dar când te uiți în litere mici, rămâne blocat în același tărâm al nesiguranței, al momentelor de strălucire cuplate cu neînțelegeri absolute.

Desigur, nu este neobișnuit ca susținătorii învățării profunde să susțină că și oamenii fac greșeli.

Dar oricine este deschis va recunoaște că aceste tipuri de erori dezvăluie că ceva este foarte greșit, în acest moment. Dacă vreunul dintre copiii mei făcea astfel de greșeli în mod regulat, nu aș exagera, aș renunța la tot ce fac și le-aș duce imediat la neurolog.

Deși cu siguranță merită să râzi, există o nuanță serioasă acolo. Când un cercetător DeepMind declară că „jocul s-a încheiat”, evocă o viziune asupra viitorului imediat sau pe termen scurt care nu are sens.

ACT? Într-adevăr?

Nu mai Gato, DALL-E sau GPT-3 sunt suficient de robuste pentru un consum public neîngrădit. Fiecare dintre ele necesită filtre dure pentru a le împiedica să se răstoarne la părtinire și, mai rău, niciunul dintre ele nu este capabil să producă în mod constant rezultate solide. Și nu doar pentru că nu am găsit sosul secret pentru codificarea AGI, ci și pentru că problemele umane sunt adesea dificile și nu au întotdeauna o soluție unică, antrenabilă.

Nu este clar cum scalarea, chiar și cuplată cu algoritmi logici revoluționari, ar putea rezolva aceste probleme.

Asta nu înseamnă că modelele gigantice nu sunt eforturi utile sau demne.

Ceea ce fac DeepMind, OpenAI și laboratoarele similare este foarte important. Este o știință de ultimă oră.

Dar să declari jocul terminat? Să insinuezi că AGI-ul se va naște dintr-un sistem a cărui contribuție distinctivă este modul în care deservește modelele? Gato este uimitor, dar se simte ca o întindere.

Nu există nimic în respingerea înflăcărată a lui de Freitas care să-mi schimbe părerea.

Creatorii lui Gato sunt, evident, geniali. Nu sunt pesimist cu privire la AGI pentru că Gato nu este suficient de uimitor. Dimpotrivă, de fapt.

Mă tem că AGI este la zeci de ani distanță – poate la secole – din cauza Gato, DALL-E și GPT-3. Fiecare demonstrează o descoperire în capacitatea noastră de a manipula computerele.

Nu este deloc miraculos să vezi o mașină reușind fapte de diversiune și evocare la Copperfield, mai ales când îți dai seama că respectiva mașină nu este mai inteligentă decât un prăjitor de pâine (și, evident, mai prost decât cel mai prost șoarece).

Pentru mine, este evident că vom avea nevoie de mai mult decât… După… pentru a lua echivalentul AI modern al „este aceasta harta ta?” la vrăjitoria gandalfiană a AGI promisă nouă.

După cum conchide Marcus în buletinul său informativ:

Dacă vom construi AGI, va trebui să învățăm ceva de la oameni, cum raționează și înțeleg lumea fizică și cum reprezintă și dobândesc limbajul și conceptele complexe.

Este pură mândrie să crezi altfel.

Add Comment