Dronele și mașinile cu conducere autonomă ca arme: de ce trebuie să ne fie frică de hackeri
Dronele și mașinile cu conducere autonomă ca arme: de ce trebuie să ne fie frică de hackeri
Anonim

Dacă inteligența artificială cade în mâini greșite, lumea civilizată se poate plonja în haos.

Dronele și mașinile cu conducere autonomă ca arme: de ce trebuie să ne fie frică de hackeri
Dronele și mașinile cu conducere autonomă ca arme: de ce trebuie să ne fie frică de hackeri

Nimeni nu va nega că inteligența artificială ne poate duce viața la următorul nivel. AI este capabil să rezolve multe probleme care sunt dincolo de puterea oamenilor.

Cu toate acestea, mulți cred că superinteligența va dori cu siguranță să ne distrugă, precum SkyNet, sau va începe să efectueze experimente pe oameni, precum GLDoS din jocul Portal. Ironia este că numai oamenii pot face inteligența artificială bună sau rea.

De ce inteligența artificială poate fi o amenințare serioasă
De ce inteligența artificială poate fi o amenințare serioasă

Cercetătorii de la Universitatea Yale, Oxford, Cambridge și OpenAI au publicat un raport despre abuzul de inteligență artificială. Se spune că adevăratul pericol vine de la hackeri. Cu ajutorul codului rău intenționat, acestea pot perturba funcționarea sistemelor automate aflate sub controlul AI.

Cercetătorii se tem că tehnologiile bine intenționate vor fi afectate. De exemplu, echipamentele de supraveghere pot fi folosite nu numai pentru a prinde teroriști, ci și pentru a spiona cetățenii de rând. Cercetătorii sunt, de asemenea, îngrijorați de dronele comerciale care livrează alimente. Este ușor să le interceptați și să plantezi ceva exploziv.

Un alt scenariu pentru utilizarea distructivă a inteligenței artificiale este mașinile cu conducere autonomă. Este suficient să schimbați câteva rânduri de cod și mașinile vor începe să ignore regulile de siguranță.

De ce inteligența artificială poate fi o amenințare serioasă
De ce inteligența artificială poate fi o amenințare serioasă

Oamenii de știință cred că amenințarea poate fi digitală, fizică și politică.

  • Inteligența artificială este deja folosită pentru a studia vulnerabilitățile diferitelor coduri software. În viitor, hackerii pot crea un bot care va ocoli orice protecție.
  • Cu ajutorul AI, o persoană poate automatiza multe procese: de exemplu, controlează un roi de drone sau un grup de mașini.
  • Cu ajutorul tehnologiilor precum DeepFake, este posibilă influențarea vieții politice a statului prin răspândirea de informații false despre liderii mondiali care folosesc roboți pe internet.

Aceste exemple înspăimântătoare există până acum doar ca o ipoteză. Autorii studiului nu sugerează o respingere completă a tehnologiei. În schimb, ei cred că guvernele naționale și companiile mari ar trebui să aibă grijă de securitate în timp ce industria AI este încă la început.

Factorii politici trebuie să studieze tehnologia și să colaboreze cu experți în domeniu pentru a reglementa eficient crearea și utilizarea inteligenței artificiale.

Dezvoltatorii, la rândul lor, trebuie să evalueze pericolul reprezentat de tehnologia înaltă, să anticipeze cele mai grave consecințe și să avertizeze liderii mondiali despre acestea. Raportul solicită dezvoltatorilor AI să facă echipă cu experți în securitate din alte domenii și să vadă dacă principiile care asigură securitatea acestor tehnologii pot fi folosite pentru a proteja inteligența artificială.

Raportul complet descrie problema mai detaliat, dar concluzia este că AI este un instrument puternic. Toate părțile interesate ar trebui să studieze noua tehnologie și să se asigure că nu este utilizată în scopuri criminale.

Recomandat: