Ce poate face de fapt inteligența artificială astăzi
Ce poate face de fapt inteligența artificială astăzi
Anonim

Alertă spoiler: Mai este mult timp până la răscoala mașinilor.

Ce poate face de fapt inteligența artificială astăzi
Ce poate face de fapt inteligența artificială astăzi

Când Elon Musk prezintă robotul umanoid Tesla Bot, se pare că o nouă revoluție științifică este chiar după colț. Mai mult – iar inteligența artificială (AI) va depăși oamenii, iar mașinile ne vor înlocui la locul de muncă. Cu toate acestea, profesorii Gary Marcus și Ernest Davis, ambii experți renumiți în inteligență artificială, sunt rugați să nu se grăbească la astfel de concluzii.

În Artificial Intelligence Reboot, cercetătorii explică de ce tehnologia modernă este departe de a fi ideală. Cu permisiunea editurii „Alpina PRO” Lifehacker publică un fragment din primul capitol.

În acest moment, există un decalaj imens - o adevărată prăpastie - între ambiția noastră și realitatea inteligenței artificiale. Această prăpastie a apărut din cauza nerezolvarii a trei probleme specifice, fiecare dintre ele trebuie tratată cu onestitate.

Prima dintre acestea este ceea ce numim credulitate, care se bazează pe faptul că noi, oamenii, nu am învățat cu adevărat să facem distincția între oameni și mașini, iar acest lucru ne face ușor să ne păcăliți. Atribuim inteligența computerelor pentru că noi înșine am evoluat și am trăit printre oameni care își bazează în mare măsură acțiunile pe abstracții, cum ar fi idei, credințe și dorințe. Comportamentul mașinilor este adesea superficial similar cu comportamentul oamenilor, așa că atribuim rapid mașinilor același tip de mecanisme de bază, chiar dacă mașinile nu le au.

Nu ne putem abține să nu ne gândim la mașini în termeni cognitivi („Computerul meu crede că mi-am șters fișierul”), indiferent cât de simple sunt regulile pe care mașinile le urmează de fapt. Dar concluziile care se justifică atunci când sunt aplicate la oameni pot fi complet greșite atunci când sunt aplicate la programele de inteligență artificială. Prin respectarea unui principiu de bază al psihologiei sociale, numim aceasta eroare fundamentală a validității.

Unul dintre primele cazuri ale acestei erori a avut loc la mijlocul anilor 1960, când un chatbot pe nume Eliza i-a convins pe unii oameni că a înțeles cu adevărat lucrurile pe care i le spuneau. De fapt, Eliza tocmai a preluat cuvinte cheie, a repetat ultimul lucru pe care i-a spus persoana respectivă și, într-o situație de fund, a recurs la trucuri standard de conversație precum „Spune-mi despre copilăria ta”. Dacă ai pomeni de mama ta, te-ar întreba despre familia ta, deși nu știa ce este cu adevărat familia sau de ce este importantă pentru oameni. A fost doar un set de trucuri, nu o demonstrație de inteligență adevărată.

În ciuda faptului că Eliza nu înțelegea deloc oamenii, mulți utilizatori au fost păcăliți de dialogurile cu ea. Unii au petrecut ore întregi tastând fraze pe tastatură, vorbind în acest fel cu Eliza, dar interpretând greșit trucurile chatbot-ului, confundând discursul papagalului cu sfaturi utile, sincere sau simpatie.

Joseph Weisenbaum Creatorul Elizei.

Oamenii care știau foarte bine că vorbesc cu o mașinărie au uitat curând acest fapt, așa cum iubitorii de teatru și-au lăsat deoparte neîncrederea pentru o vreme și uită că acțiunea la care sunt martori nu are dreptul să fie numită reală.

Interlocutorii Elizei cereau deseori permisiunea pentru o conversație privată cu sistemul și după conversație au insistat, în ciuda tuturor explicațiilor mele, că aparatul i-a înțeles cu adevărat.

În alte cazuri, eroarea de apreciere a autenticității poate fi fatală în sensul literal al cuvântului. În 2016, un proprietar al unei mașini Tesla automatizate s-a bazat atât de mult pe siguranța aparentă a modului pilot automat încât (conform poveștilor) s-a cufundat complet în vizionarea filmelor Harry Potter, lăsând mașina să facă totul de la sine.

Totul a mers bine – până când la un moment dat s-a prost. După ce a parcurs sute sau chiar mii de kilometri fără accident, mașina s-a ciocnit (în toate sensurile cuvântului) cu un obstacol neașteptat: un camion alb a traversat autostrada, iar Tesla s-a repezit chiar sub remorcă, ucigând pe loc proprietarul mașinii.. (Mașina părea să-l avertizeze pe șofer de mai multe ori să preia controlul, dar șoferul părea prea relaxat pentru a reacționa rapid.)

Morala acestei povești este clară: faptul că un dispozitiv poate părea „inteligent” pentru un moment sau două (și chiar șase luni) nu înseamnă deloc că este cu adevărat așa sau că poate face față tuturor împrejurărilor în care o persoană ar reacționa adecvat.

A doua problemă pe care o numim iluzia progresului rapid: confundarea progresului în inteligența artificială, asociat cu rezolvarea unor probleme ușoare, cu progresul, asociat cu rezolvarea unor probleme cu adevărat dificile. Acest lucru s-a întâmplat, de exemplu, cu sistemul IBM Watson: progresul său în jocul Jeopardy! părea foarte promițător, dar, de fapt, sistemul s-a dovedit a fi mult mai departe de înțelegerea limbajului uman decât anticipaseră dezvoltatorii.

Este posibil ca programul AlphaGo al DeepMind să urmeze aceeași cale. Jocul go, ca și șahul, este un joc de informații idealizat în care ambii jucători pot vedea în orice moment întreaga tablă și pot calcula consecințele mișcărilor prin forță brută.

În cele mai multe cazuri, în viața reală, nimeni nu știe nimic cu deplină certitudine; datele noastre sunt adesea incomplete sau distorsionate.

Chiar și în cele mai simple cazuri, există multă incertitudine. Când decidem dacă mergem la medic pe jos sau luăm metroul (din moment ce ziua este înnorată), nu știm exact cât timp va dura să așteptăm trenul de metrou, dacă trenul se blochează pe drum, dacă ne vom înghesui în trăsură ca heringul într-un butoi sau ne vom uda în ploaie afară, fără a îndrăzni să luăm metroul și cum va reacționa doctorul la întârzierea noastră.

Lucrăm întotdeauna cu informațiile pe care le avem. Jucându-se la Go cu el însuși de milioane de ori, sistemul DeepMind AlphaGo nu s-a confruntat niciodată cu incertitudinea, pur și simplu nu știe ce lipsă de informații sau incompletitudinea și inconsecvența acesteia, ca să nu mai vorbim de complexitatea interacțiunii umane.

Există un alt parametru care face ca jocurile minții să fie foarte diferite de lumea reală, iar acest lucru are legătură cu datele. Chiar și jocurile complexe (dacă regulile sunt suficient de stricte) pot fi modelate aproape perfect, astfel încât sistemele de inteligență artificială care le joacă pot colecta cu ușurință cantitățile uriașe de date de care au nevoie pentru a le antrena. Astfel, în cazul lui Go, o mașină poate simula un joc cu oameni pur și simplu jucând împotriva sa; chiar dacă sistemul are nevoie de terabytes de date, le va crea singur.

Programatorii pot obține astfel date de simulare complet curate, cu costuri mici sau deloc. Dimpotrivă, în lumea reală, datele perfect curate nu există, este imposibil să le simulezi (deoarece regulile jocului se schimbă constant) și cu atât mai dificil este să colectezi mulți gigaocteți de date relevante prin încercare si eroare.

În realitate, avem doar câteva încercări de a testa diferite strategii.

Nu suntem capabili, de exemplu, să repetăm o vizită la medic de 10 milioane de ori, ajustând treptat parametrii de decizie înainte de fiecare vizită, pentru a ne îmbunătăți dramatic comportamentul în ceea ce privește alegerea transportului.

Dacă programatorii vor să antreneze un robot care să-i ajute pe bătrâni (să zicem, să ajute la culcarea persoanelor bolnave), fiecare fragment de date va valora bani reali și timp uman real; nu există nicio modalitate de a colecta toate datele necesare folosind jocuri de simulare. Chiar și manechinele testelor de accident nu pot înlocui oamenii adevărați.

Este necesar să se colecteze date despre persoane vârstnice reale cu diferite caracteristici ale mișcărilor senile, pe diferite tipuri de paturi, diferite tipuri de pijamale, diferite tipuri de case și aici nu puteți face greșeli, deoarece scăpați o persoană chiar și la o distanță de mai multe centimetri de pat ar fi un dezastru. În acest caz, este în joc un anumit progres (deocamdată cel mai elementar) în acest domeniu a fost realizat folosind metodele inteligenței artificiale înguste. Au fost dezvoltate sisteme informatice care joacă aproape la nivelul celor mai buni jucători umani din jocurile video Dota 2 și Starcraft 2, unde la un moment dat doar o parte din lumea jocului este prezentată participanților și, astfel, fiecare jucător se confruntă cu problema lipsei de informare – care cu mâna ușoară a lui Clausewitz este numită „ceața necunoscutului”. Cu toate acestea, sistemele dezvoltate rămân încă foarte puțin concentrate și instabile în funcționare. De exemplu, programul AlphaStar care joacă în Starcraft 2 a învățat doar o anumită rasă dintr-o varietate mare de personaje și aproape niciuna dintre aceste evoluții nu poate fi jucată ca orice altă rasă. Și, desigur, nu există niciun motiv să credem că metodele utilizate în aceste programe sunt potrivite pentru a face generalizări de succes în situații mult mai complexe din viața reală. vieți reale. După cum IBM a descoperit nu o dată, ci deja de două ori (întâi la șah, apoi în Jeopardy!), Succesul în problemele dintr-o lume închisă nu garantează deloc succesul într-o lume deschisă.

Al treilea cerc al prăpastiei descrise este o supraestimare a fiabilității. Din nou și din nou, vedem că, de îndată ce oamenii cu ajutorul inteligenței artificiale găsesc o soluție la o problemă care poate funcționa fără eșecuri pentru un timp, ei presupun automat că odată cu revizuirea (și cu o cantitate ceva mai mare de date) totul va functiona fiabil.timp. Dar acesta nu este neapărat cazul.

Luăm din nou mașini fără șoferi. Este relativ ușor să creezi o demonstrație a unui vehicul autonom care va circula corect pe o bandă marcată clar pe un drum calm; cu toate acestea, oamenii au reușit să facă acest lucru de peste un secol. Cu toate acestea, este mult mai dificil să faci ca aceste sisteme să funcționeze în circumstanțe dificile sau neașteptate.

Așa cum ne-a spus Missy Cummings, directorul Laboratorului Uman și Autonomie de la Universitatea Duke (și un fost pilot de luptă al Marinei SUA), într-un e-mail, întrebarea nu este câți mile poate parcurge o mașină fără șofer fără un accident, ci în măsura în care la care aceste mașini sunt capabile să se adapteze situațiilor în schimbare. Potrivit ei Missy Cummings, e-mail către autorilor pe 22 septembrie 2018., vehiculele moderne semi-autonome „funcționează de obicei doar într-o gamă foarte restrânsă de condiții, care nu spun nimic despre modul în care pot funcționa în condiții mai puțin decât ideale”.

Să arăți complet fiabil pe milioane de mile de testare în Phoenix nu înseamnă să faci bine în timpul musonului din Bombay.

Această diferență fundamentală între modul în care vehiculele autonome se comportă în condiții ideale (cum ar fi zilele însorite pe drumurile suburbane cu mai multe benzi) și ceea ce ar putea face în condiții extreme poate deveni cu ușurință o chestiune de succes și eșec pentru o întreagă industrie.

Cu atât de puțin accent pe conducerea autonomă în condiții extreme și că metodologia actuală nu a evoluat în direcția de a se asigura că pilotul automat va funcționa corect în condiții care abia încep să fie luate în considerare cu adevărat, ar putea deveni clar în curând că miliarde de dolari au fost cheltuite pentru metode de construire a mașinilor cu conducere autonomă care pur și simplu nu reușesc să ofere fiabilitate de conducere asemănătoare unui om. Este posibil ca pentru a atinge nivelul de încredere tehnică de care avem nevoie, să fie necesare abordări fundamental diferite de cele actuale.

Și mașinile sunt doar un exemplu din multe altele similare. În cercetările moderne privind inteligența artificială, fiabilitatea acesteia a fost subestimată la nivel global. Acest lucru se datorează parțial pentru că majoritatea evoluțiilor actuale din acest domeniu implică probleme care sunt foarte tolerante la erori, cum ar fi recomandarea de publicitate sau promovarea de produse noi.

Într-adevăr, dacă îți recomandăm cinci tipuri de produse și îți plac doar trei dintre ele, nu se va întâmpla niciun rău. Dar într-o serie de aplicații AI critice pentru viitor, inclusiv mașinile fără șofer, îngrijirea vârstnicilor și planificarea asistenței medicale, fiabilitatea asemănătoare omului va fi critică.

Nimeni nu va cumpăra un robot de casă care să-ți poată duce în siguranță bunicul în vârstă la pat doar de patru ori din cinci.

Chiar și în acele sarcini în care inteligența artificială modernă ar trebui teoretic să apară în cea mai bună lumină posibilă, eșecurile grave apar în mod regulat, uneori arătând foarte amuzant. Un exemplu tipic: computerele, în principiu, au învățat deja destul de bine cum să recunoască ceea ce se întâmplă (sau se întâmplă) în cutare sau cutare imagine.

Uneori, acești algoritmi funcționează excelent, dar adesea produc erori complet incredibile. Dacă arătați o imagine unui sistem automat care generează subtitrări pentru fotografiile scenelor de zi cu zi, obțineți adesea un răspuns remarcabil de similar cu ceea ce ar scrie un om; de exemplu, pentru scena de mai jos, în care un grup de oameni joacă frisbee, sistemul de generare de subtitrări foarte mediatizat de la Google îi dă exact numele potrivit.

Fig 1.1. Grup de tineri care joacă frisbee (legendă foto plauzibilă, generată automat de AI)
Fig 1.1. Grup de tineri care joacă frisbee (legendă foto plauzibilă, generată automat de AI)

Dar cinci minute mai târziu, puteți obține cu ușurință un răspuns absolut absurd de la același sistem, așa cum sa întâmplat, de exemplu, cu acest indicator rutier, pe care cineva a lipit autocolante: computerul numit Creatorii sistemului nu a explicat de ce a apărut această eroare, dar astfel de cazuri nu sunt neobișnuite. Putem presupune că sistemul din acest caz particular a clasificat (poate în ceea ce privește culoarea și textura) fotografia ca fiind similară cu celelalte imagini (din care a învățat) etichetată drept „un frigider plin cu o mulțime de alimente și băuturi”. Desigur, computerul nu a înțeles (pe care o persoană ar putea înțelege cu ușurință) că o astfel de inscripție ar fi potrivită doar în cazul unei cutii metalice dreptunghiulare mari, cu diverse (și chiar și atunci nu toate) obiecte în interior. această scenă este „un frigider cu multe alimente și băuturi”.

Orez. 1.2. Frigider plin cu o mulțime de alimente și băuturi (titlu total neplauzibil, creat de același sistem ca mai sus)
Orez. 1.2. Frigider plin cu o mulțime de alimente și băuturi (titlu total neplauzibil, creat de același sistem ca mai sus)

De asemenea, mașinile fără șofer identifică adesea corect ceea ce „văd”, dar uneori par să treacă cu vederea ceea ce este evident, ca în cazul Tesla, care s-a ciocnit în mod regulat de mașini de pompieri parcate sau de ambulanțe pe pilot automat. Punctele moarte ca acestea pot fi și mai periculoase dacă sunt amplasate în sisteme care controlează rețelele electrice sau sunt responsabile de monitorizarea sănătății publice.

Pentru a reduce decalajul dintre ambiție și realitățile inteligenței artificiale, avem nevoie de trei lucruri: o conștientizare clară a valorilor în joc în acest joc, o înțelegere clară a motivului pentru care sistemele moderne de inteligență artificială nu își îndeplinesc funcțiile suficient de fiabil și, în cele din urmă, o nouă strategie de dezvoltare mașină de gândire.

Întrucât miza pe inteligența artificială este cu adevărat mare în ceea ce privește locurile de muncă, siguranța și structura societății, este nevoie urgentă ca noi toți - profesioniști AI, profesii conexe, cetățeni obișnuiți și politicieni - să înțelegem adevărata stare a lucrurilor. în acest domeniu pentru a învăța să evalueze critic nivelul și natura dezvoltării inteligenței artificiale de astăzi.

Așa cum este important ca cetățenii interesați de știri și statistici să înțeleagă cât de ușor este să induci oamenii în eroare cu cuvinte și numere, tot așa iată un aspect din ce în ce mai important al înțelegerii, astfel încât să ne dăm seama unde este inteligența artificială. doar publicitate, dar unde este real; ce este capabil să facă acum și ce nu știe cum și, poate, nu va învăța.

Cel mai important lucru este să realizăm că inteligența artificială nu este magie, ci doar un set de tehnici și algoritmi, fiecare dintre ele având propriile puncte forte și puncte slabe, este potrivit pentru anumite sarcini și nu este potrivit pentru altele. Unul dintre principalele motive pentru care ne-am propus să scriem această carte este că o mare parte din ceea ce citim despre inteligența artificială ni se pare a fi o fantezie absolută, care se dezvoltă dintr-o încredere nefondată în puterea aproape magică a inteligenței artificiale.

Între timp, această ficțiune nu are nimic de-a face cu capabilitățile tehnologice moderne. Din păcate, discuția despre IA în rândul publicului larg a fost și este puternic influențată de speculații și exagerări: majoritatea oamenilor nu au idee cât de dificil este să creeze inteligență artificială universală.

Să clarificăm discuția în continuare. Deși clarificarea realităților asociate cu inteligența artificială va necesita critici serioase din partea noastră, noi înșine nu suntem deloc oponenți ai inteligenței artificiale, ne place foarte mult această latură a progresului tehnologic. Am trăit o parte semnificativă a vieții noastre ca profesioniști în acest domeniu și ne dorim să se dezvolte cât mai repede posibil.

Filosoful american Hubert Dreyfus a scris odată o carte despre ce înălțimi, în opinia sa, nu poate atinge niciodată inteligența artificială. Nu despre asta este vorba în această carte. Se concentrează parțial pe ceea ce AI nu poate face în prezent și de ce este important să-l înțelegi, dar o parte semnificativă vorbește despre ceea ce s-ar putea face pentru a îmbunătăți gândirea computerizată și a o extinde în zonele în care acum are dificultăți în a face mai întâi.

Nu vrem ca inteligența artificială să dispară; ne dorim să se îmbunătățească, de altfel, radical, astfel încât să putem conta cu adevărat pe ea și să rezolvăm cu ajutorul ei numeroasele probleme ale omenirii. Avem o mulțime de critici cu privire la starea actuală a inteligenței artificiale, dar critica noastră este o manifestare a iubirii pentru știința pe care o facem, nu o chemare de a renunța și a abandona totul.

Pe scurt, credem că inteligența artificială poate într-adevăr transforma serios lumea noastră; dar credem, de asemenea, că multe dintre ipotezele de bază despre IA trebuie să se schimbe înainte de a putea vorbi despre progres real. „Resetarea” noastră a inteligenței artificiale nu este deloc un motiv pentru a pune capăt cercetării (deși unii ar putea înțelege cartea noastră exact în acest spirit), ci mai degrabă un diagnostic: unde suntem blocați acum și cum ieșim din situatia de azi.

Credem că cel mai bun mod de a merge înainte poate fi să privim în interior, înfruntând structura propriei noastre minți.

Mașinile cu adevărat inteligente nu trebuie să fie replici exacte ale oamenilor, dar oricine se uită la inteligența artificială cu sinceritate va vedea că mai sunt multe de învățat de la oameni, în special de la copiii mici, care sunt în multe privințe cu mult superioare mașinilor din capacitatea lor de a absorbi și înțelege concepte noi.

Oamenii de știință din domeniul medical caracterizează adesea computerele drept sisteme „supraomenești” (într-un fel sau altul), dar creierul uman este încă cu mult superior omologilor săi din siliciu în cel puțin cinci aspecte: putem înțelege limbajul, putem înțelege lumea, putem în mod flexibil. ne adaptăm la circumstanțe noi, putem învăța rapid lucruri noi (chiar și fără cantități mari de date) și putem raționa în fața unor informații incomplete și chiar contradictorii. Pe toate aceste fronturi, sistemele moderne de inteligență artificială sunt fără speranță în spatele oamenilor.

Repornirea inteligenței artificiale
Repornirea inteligenței artificiale

Inteligență artificială: Repornirea va interesa oamenii care doresc să înțeleagă tehnologiile moderne și să înțeleagă cum și când o nouă generație de IA ne poate îmbunătăți viața.

Recomandat: