Inteligenţa artificială creată de Google a învăţat să fie foarte agresivă

 

Cercetătorii de la proiectul DeepMind al Google au descoperit recent un comportament interesant al inteligenţei artificiale. Au testat capacitatea de cooperare între diferiţi agenţi în cadrul unor jocuri, observând că cei care sunt pe cale să piardă apelează atunci la strategii agresive pentru a răsturna situaţia.

Echipa de la Google a efectuat o serie de teste pentru a vedea comportamentul inteligenţei artificiale DeepMind, relatează Science Alert.

Un test a avut în vedere rularea a 40 de milioane de runde ale unui joc simplu, unde doi „agenţi” trebuiau să adune cât mai multe fructe.

Au observat că lucrurile mergeau normal atâta vreme cât erau suficiente fructe, dar atunci când numărul acestora era din ce în ce mai scăzut, cei doi agenţi deveneau agresivi, folosind lasere pentru a-l elimina pe celălalt şi a-i lua fructele. Acest joc poate fi urmărit mai jos, cu agenţii DeepMind în roşu şi albastru, fructele în verde şi laserul în galben:

 
Interesant este că dacă un agent îl loveşte pe altul cu laserul, nu se oferă niciun bonus, ci doar este eliminat oponentul pentru un moment. Dacă agenţii nu ar folosi laserul, ar termina teoretic cu acelaşi număr de fructe culese, aşa cum au arătat formele precedente mai puţin complexe ale inteligenţei artificiale. Astfel de comportament s-a întâlnit aşadar la forme mai complexe de inteligenţă, unde agenţii au prezentat o dispoziţie pentru strategii agresive, care includ şi lăcomie.

Joel Z. Leibo, un membru al echipei de cercetare, susţine că „acest model […] arată că unele aspecte ale comportamentului similar cu al omului emerg ca produs al mediului şi al acumulării de experienţă”.

DeepMind a fost apoi instruit să mai joace un joc, numit Wolfpack. De data aceasta erau trei agenţi – doi erau lupi, iar unul era prada. Spre deosebire de jocul precedent, acesta încuraja cooperarea pentru că atunci când ambii lupi erau în apropierea prăzii când era capturată, ambii primeau o recompensă.

Acesta este reprezentat în video-ul de mai jos, unde agenţii roşii sunt lupii, iar pătrățelul albastru este prada:

 
În acest joc prada este periculoasă, și un singur lup o poate învinge dar riscă să o piardă, primind deci şi o recompensă mai mică.
Agenţii s-au adaptat noilor condiţii şi au cooperat pentru obţinerea unor rezultate mai bune.

Aceste rezultate pot indica un mare risc în contextul în care scopul inteligenţei artificiale nu este contrabalansat cu nevoile umane. Acestea din urmă ar trebui să fie scopul ultim pentru agenţii inteligenței artificiale.


Citiți și:

Inteligenţa artificială este pe cale să declanşeze schimbări în rău ce sunt dramatice. Avertismentul experţilor

«Roboţii ucigaşi» – kalaşnikovul viitorului?

 

yogaesoteric
21 martie 2017

 

Also available in: English

Spune ce crezi

Adresa de email nu va fi publicata

Acest site folosește Akismet pentru a reduce spamul. Află cum sunt procesate datele comentariilor tale.

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More