Timp de citire: 6 minute

Astfel, sunt aduse în discuție tehnicile de investigare cerebrală și obținerea sau facilitarea obținerii de informații de la un individ, fără acordul acestuia sau prin falsificarea (manipularea) consimțământului.

Un exemplu în acest sens, propus după 9/11, este „imagistica interogaţională”[1], care analizează funcțiile cerebrale cu ajutorul tehnicii de RMN funcțional, iar interpretarea rezultatelor este realizată cu ajutorul unor programe de machine learning. Dilema etică nu este totuși una recentă, discuțiile privind utilizarea altor metode instrumentale de evidențiere a adevărului, precum poligrafia („detectorul de minciuni”) în justiție, datează încă din anii ’40. Cu toate că în majoritatea statelor, informațiile obținute prin testarea poligraf nu au statut de probă în justiție, totuși practica este tot mai frecvent întâlnită în mediul militar sau corporatist, în vederea testării loialității sau în scop contrainformativ.

Este de așteptat ca și noile neurotehnologii de monitorizare să aibă inițial aplicații limitate în justiție, aspect care nu îngrădește utilizarea lor în alte domenii mai puțin reglementate, pe baza eficienţei dovedite.

Impactul militarizării inteligenţei artificiale asupra strategiilor militare, mediului de securitate și relațiilor internaționale este estimat a fi comparabil cu cel al armelor nucleare, afirma un recent raport realizat de Harvard Belfer Center la solicitarea IARPA. Militarizarea inteligenţei artificiale reprezintă un multiplicator de forță, în special pentru statele mici sau organizațiile substatale sau chiar pentru grupuri reduse de indivizi, prin care pot provoca pagube considerabile statelor dezvoltate sau corporațiilor transnaționale. Având în vedere o serie de similitudini istorice și scenarii viitoare, autorii recomandă reglementarea utilizării sistemelor AI militarizate utilizând tratate internaționale[2].

Un alt aspect se referă la modalitatea în care aplicațiile autonome de inteligenţă artificială pot monitoriza on- și offline o persoană și pot interfera cu libertatea cognitivă, imaginea în mediul electronic sau chiar spațiul social, afecta sănătatea psihică (emoțională) și performanțele, influența acțiunile și deciziile fără acordul sau chiar împotriva propriilor convingeri exprimate, afecta sau dirija rețeaua socială virtuală etc.[3]

O altă fațetă a colaborării dintre oameni și (multiple) inteligenţe artificiale, implicate de exemplu în realizarea unui proiect comun – cognitiv sau artistic, este și modul în care se stabilesc „drepturile de autor”[4], responsabilitățile în caz de eșec sau beneficiile rezultate. Încercările efectuate până în prezent, precum solicitarea din anul 2019 realizată de o echipă de cercetători britanici, adresată Oficiului de Proprietate Intelectuală din Marea Britanie și Oficiului Uniunii Europene pentru Proprietate Intelectuală (EUIPO), de recunoaștere a două patente de invenții realizate de către un sistem de inteligență artificială denumit DABUS s-au soldat cu respingerea cererilor[5]

Studiul conflictelor informaționale moderne oferă deja o primă imagine a capacității soluţiilor avansate de inteligenţă artificială de a influența la scară largă comportamentele individuale și sociale, în special în perioade de tensiuni, criză sau expectativă politică[7]. Ca exemple putem menționa programe de machine learning capabile să genereze campanii de propagandă online adaptative[8], realizarea de producții video și audio deepfake, generarea de fizionomii credibile virtuale, mascarea online a atacurilor hibride (generarea de zgomot informațional, știri alternative plauzibile, atacuri coordonate asupra unor surse de informare credibile, contaminarea datelor obținute de la sistemele video de supraveghere și recunoaștere automată etc.), atacuri complexe de inginerie socială[9]

Va fi posibil ca în viitor o entitate dotată cu inteligență artificială generală avansată, capabilă să emuleze funcțiile psihice umane superioare, să fie recunoscută legal ca persoană non-umană și să devină subiect de drept ? O încercare în direcția „umanizării” inteligenței artificiale este și NEON[6], produs de compania Samsung, promovat ca reprezentând „primul om artificial”, capabil să aibă înfățișarea și comportamentul unei ființe umane, inclusiv cu abilitatea de a exterioriza emoții și a realiza raționamente complexe. Creatorii NEON insistă asupra faptului că acesta nu este un asistent dotat cu un grad de inteligență artificială sau o interfață sofisticată conectată la Internet și că prezintă capacitatea de a învața din interacția cu oamenii, dobândi noi abilități și de a evolua.  ns.

Monitorizarea interacției vizuale (eye-tracking), a atenției și concentrării (electroencefalografic) și atenției și surprizei (electrogalvanometric) în cazul unui subiect masculin expus voluntar la materiale de propagandă (conflictul din Donbas – 2014). (Sursa: Neuroaugmentare_ro)

Posibilitatea ca roboți umanoizi cu inteligență artificială să dobândească competențe emoționale avansate, să „înțeleagă” reacții emoționale complexe umane și să simuleze în timp real un registru emoțional detaliat va genera dileme practice și etice dificil de anticipat, cu atât mai mult cu cât se vor adresa unei generații mult mai familiarizate cu dispozitivele robotice și interfețe prietenoase. Potențialele scenarii de interacție om-AI sunt și în prezent un motiv de preocupare, cercetare și polemizare[10]

În eventualitatea atingerii stadiului de superinteligenţă de către soluţiile de inteligenţă artificială (eveniment estimat a se produce după 30-40 de ani de la egalarea nivelului de inteligenţă umană), se ridică întrebarea capacității de control de către operatorii umani sau închiderii definitive a unui sistem superinteligent.

Capacitatea sistemului de a se autoperfecționa, colabora cu alte sisteme de AI sau autoprograma, precum și „atitudinea” faţă de inteligenţele umane sunt preocupări legitime fără un răspuns mulțumitor în prezent[11].  Cercetarea modalităților posibile de interacție dintre inteligența artificială generalizată și umanitate a dus la identificarea mai multor scenarii, fără ca acestea să ocupe întregul spectru de posibilități: utopia libertariană, dictator binevoitor, utopia egalitară, gardian, zeu protector, zeu înrobit, învingători, descendenți, paznic la zoo, 1984, revenire, autodistrugere[12]. Aceste experimente de gândire încearcă să surprindă evoluțiile tehnologice posibile, reacțiile și interesele cele mai probabile ale umanității, dilemele morale[13].


[1]       Marks JH, Interrogational neuroimaging in counterterrorism: a “no-brainer” or a human rights hazard? Am. J. Law. Med., 2007; 33(2-3):483-500, disponibil la https://www.ncbi.nlm.nih.gov/pubmed /17910168.

[2]       Greg Allen, Taniel Chan, Artificial Intelligence and National Security, Belfer Center for Science and International Affairs, iulie 2017, Cambridge, SUA, disponibil la http://www.belfercenter.org/sites/default /files/files/publication/AI%20NatSec%20-%20final.pdf.

[3]       Marcello Ienca, Preserving the Right to Cognitive Liberty, august 2017, Scientific American, disponibil la https://www.scientificamerican.com/article/preserving-the-right-to-cognitive-liberty/#.

[4]      https://lawdigitalcommons.bc.edu/bclr/vol57/iss4/2/

[5]      http://artificialinventor.com/patent-applications/.

[6]      https://www.neon.life/.

[7]       Berit Anderson, Brett Horvath, The Rise of the Weaponized AI Propaganda Machine,09.02.2017, disponibil la https://scout.ai/story/the-rise-of-the-weaponized-ai-propaganda-machine?utm_content=buff ereadd5&utm _medium=social&utm_source=linkedin.com&utm_campaign=buffer.

[8]      The Computational Propaganda Project, disponibil la http://comprop.oii.ox.ac.uk/.

[9]     Congressional Research Service, Artificial Intelligence and National Security, 30.01.2019, pp. 9-14,  disponibil la https://fas.org/sgp/crs/natsec/R45178.pdf.

[10]    https://www.ibm.com/design/ai/

[11]    Mike Loukides, The ethics of artificial intelligence. A framework for thinking about AI, 14.11.2016, disponibil la https://www.oreilly.com/ideas/the-ethics-of-artificial-intelligence.

[12]    Max Tegmark, Viața 3.0. Omul în epoca inteligenței artificiale, Editura Humanitas, București, 2019, pp. 181-182.

[13]    Cititorii interesați să aprofundeze aceste scenarii și să participe la un chestionar pe această temă o pot face la adresa https://futureoflife.org/superintelligence-survey/?cn-reloaded=1.