Este timpul să discutăm despre riscurile inteligenței artificiale. Poate pune lumea în pericol?

DE Kenneth Bernard | Actualizat: 27.05.2023 - 21:50

Normele permisive pentru cercetarea în domeniul biotehnologiei au pus lumea în pericol. Să nu facem aceeași greșeală cu inteligența artificială.

SHARE

Recent, jurnalistul Kevin Roose a fost luat prin surprindere de chatbot-ul cu inteligență artificială al Microsoft Bing, numit Sydney, când acesta i-a spus, în timpul unei conversații, „Vreau doar să te iubesc și să fiu iubit de tine“.

Oricât de amuzant și lipsit de consecințe ar părea, acest episod ar trebui să fie un semnal de alarmă pentru comunitatea AI (Inteligență Artificială). Aceasta trebuie să înceapă să se gândească chiar acum la siguranța inteligenței artificiale generative - tehnologia din spatele lui Sydney, ChatGPT de la OpenAI și Bard de la Google - și la măsurile de protecție adecvate care trebuie puse în aplicare, înainte de apariția unor probleme mai mari.

Vă ofer acest sfat din experiență personală. În urmă cu două decenii, eram un înalt funcționar la Casa Albă în timpul administrației lui George W. Bush, când o altă tehnologie care a schimbat lumea - manipularea genetică – ne-a transformat viitorul.

Este timpul să discutăm despre riscurile inteligenței artificiale

La fel ca inteligența artificială generativă, această nouă biotehnologie a fost un progres unic într-o generație, care a inspirat atât entuziasm, cât și teamă. În anii care au trecut de atunci, biotehnologia a adus multe beneficii, dar a expus, de asemenea, lumea la riscuri mari - în parte din cauza supravegherii insuficiente.

Toate inovațiile au potențialul de a oferi beneficii și de a provoca daune - ceea ce a fost numit tehnologie „cu dublă utilizare“. Pentru unele persoane, inteligența artificială generativă reprezintă un moment interesant și crucial în tehnologie, cu implicații de mare anvergură.

Pentru alții, aceasta prevestește un viitor în care forme de viață sensibilă periculoase, bazate pe siliciu, vor lua decizii pe care nu le putem controla sau opri în privința vieților noastre.

„Comunitatea cercetătorilor,
antreprenorilor și autorităților de
reglementare în domeniul AI ar
face
bine să țină cont de
lecțiile biotehnologiei“

În urmă cu mai bine de 20 de ani, lumea era la fel de divizată cu privire la utilizarea duală a agenților biologici periculoși, în special a celor obținuți prin inginerie genetică.

Stimulentele pentru a merge mai departe cu manipularea genetică le‑au depășit cu mult pe cele care îndemnau la atenție și prudență. Aceste stimulente includeau nu numai crearea de noi vaccinuri și medicamente valoroase din punct de vedere economic și social, ci și progrese în știința fundamentală și, nu în mod nesemnificativ, în carierele oamenilor de știință din mediul academic.

În 1996, Congresul SUA a adoptat norme pentru controlul accesului și a transferului unor agenți infecțioși și toxine selectate. Aceste reguli nu au mers însă suficient de departe.

După atacurile cu antrax din 2001 din SUA, soldate cu cinci decese, Congresul a adoptat o legislație pentru a spori supravegherea unui set specific de agenți și toxine selecționate, care aveau potențialul de a reprezenta o amenințare gravă la adresa sănătății publice sau a agriculturii. Aceste norme nu au fost, din păcate, suficiente.

În 2003, un raport al Consiliului Național de Cercetare („Cercetarea în domeniul biotehnologiei în epoca terorismului“) a recomandat modificări ale normelor de supraveghere a cercetării, ale reglementărilor și ale celor mai bune practici pentru a reduce amenințarea utilizării manipulării genetice în scopuri răuvoitoare.

Ca răspuns, am redactat statutul care a creat Consiliul consultativ național științific pentru biosecuritate (National Science Advisory Board for Biosecurity - NSABB). Din 2004, NSABB (în care sunt în continuare un membru activ) a încercat să promoveze recomandările de cercetare din raportul NRC.

Acesta a sporit supravegherea cercetărilor biologice potențial periculoase, protejându-se în același timp împotriva reglementărilor draconice care pot înăbuși inovația.

Dar punerea în aplicare a fost problematică și lentă, în parte din cauza obiecțiilor din partea multor oameni de știință, care s-au plâns că supravegherea excesivă și birocratică a constrâns cercetarea critică.

De atunci, au izbucnit controverse cu privire la siguranța unor cercetări biotehnologice. Cea mai notabilă a fost o serie de experimente de „câștig de funcție“ asupra virusului gripal H5N1 (gripa aviară), în care oamenii de știință au făcut virusul mai transmisibil la mamifere pentru a învăța cum să blocheze transmiterea acestuia.

Noi, cei din comunitatea de biosecuritate, am fost alarmați de riscurile pe care și le asumau oamenii de știință în cadrul acestor experimente - printre acestea, riscul ca un accident de laborator să provoace o pandemie.

Aceste aspecte i-au determinat pe oamenii de știință îngrijorați să recomande guvernului SUA să declare o pauză de trei ani în finanțarea unei liste de studii potențial periculoase privind obținerea de funcții, timp în care guvernul ar urma să stabilească mecanisme noi și mai agresive de supraveghere a cercetării.

Din păcate, supravegherea sporită s-a limitat la un număr mic de virusuri respiratorii cunoscute care ar putea provoca o pandemie. Riscul de a declanșa accidental o pandemie trebuie să fi părut destul de abstract pentru majoritatea americanilor de atunci.

Acum nu mai este așa. Astăzi, sondajele arată că mulți oameni cred că o manipulare în laborator a coronavirusurilor a dus la crearea SARS-CoV-2, virusul care provoacă COVID-19.

Originea COVID-19 este, de asemenea, o problemă controversată în rândul oamenilor de știință și al politicienilor. O facțiune susține sus și tare că acest coronavirus pandemic a rezultat în urma manipulării genetice intenționate într-un laborator din Wuhan, China.

În timp ce câțiva susțin că virusul a fost modificat în mod deliberat pentru a-l face mai periculos, cei mai mulți cred că un virus creat în urma unor cercetări riscante, fără o supraveghere adecvată, a fost eliberat în mod neintenționat.

Tabăra adversă insistă la fel de vehement că boala  COVID-19 a rezultat în urma unor mutații naturale ale unui virus de la un liliac transmis la un animal sălbatic (încă necunoscut) și apoi la purtătorii umani dintr-o piață din Wuhan, China.

„Riscul declanșării accidentale
a unei
pandemii părea abstract
cândva pentru majoritatea
americanilor. Nu mai este așa“

COVID-19 provine dintr-un laborator sau dintr-o piață alimentară? Mi se pune această întrebare în fiecare zi. Răspunsul meu? Sincer, nu știm încă. Ceea ce știm este că știința a progresat suficient de mult astfel încât virusul ar fi putut proveni din manipularea genei coronavirusului, indiferent dacă în acest caz a fost așa sau nu.

Această amenințare există în parte pentru că mecanismele actuale de supraveghere a cercetării asupra agenților patogeni potențial periculoși nu sunt suficiente pentru a ne asigura că suntem în siguranță în fața manipulării genetice intenționate sau neintenționate a organismelor cu potențial pandemic.

În ciuda bunelor intenții, în ultimii 20 de ani, guvernul SUA a abordat supravegherea într-un mod fragmentat, nereușind să ofere cercetătorilor și instituțiilor îndrumări timpurii, consecvente și oportune privind evaluarea și reducerea riscurilor inerente acestui tip de cercetare.

Ca urmare, instituțiile guvernamentale, comerciale și academice au instituit o evaluare și o supraveghere variabilă și inconsecventă a cercetării. Iar această supraveghere s-a axat în principal pe antrax, febră Lassa, variolă, gripă aviară și alți agenți selectivi, așa cum sunt specificați de guvern pe o listă de agenți patogeni potențiali periculoși.

Această concentrare îngustă nu este suficientă pentru a ne proteja de o cercetare biologică mai largă și potențial riscantă. Amenințările, știm bine cu toții, pot proveni de la mutații în bacterii și virusuri mult mai comune, cum ar fi coronavirusul.

NSABB a înaintat recent recomandări administrației Biden pentru creșterea semnificativă a supravegherii cercetării genetice care ar putea fi folosită atât în scopuri bune, cât și în scopuri negative - fie din cauza accidentelor de laborator, fie din cauza utilizării deliberate greșite.

Aceste recomandări ar extinde revizuirea și supravegherea cercetării pentru a include experimentele asupra oricărui agent care ar putea fi capabil să se răspândească necontrolat sau să provoace o morbiditate sau mortalitate semnificativă și, în plus, este posibil să reprezinte o amenințare gravă la adresa sănătății publice sau a securității naționale.

Mai multe comisii ale Congresului sunt, de asemenea, preocupate în mod activ de faptul că într-un fel comunitatea biotehnologică trebuie să ia mai mult în considerare siguranța atunci când efectuează cercetări genetice de interes. Dar suntem în curs de recuperare a întârzierilor.

Comunitatea cercetătorilor, antreprenorilor și autorităților de reglementare din domeniul AI ar face bine să țină cont de lecțiile biotehnologiei. Rugămintea mea este să înceapă să se gândească la siguranță încă de pe acum.

Nu așteptați să apară prima mare problemă de abuz sau consecințe nedorite. Luați-o înainte, planificând o supraveghere coordonată și continuați să modificați aceste planuri, pe măsură ce tehnologia avansează.

Iată câteva măsuri concrete:

Părțile interesate din sectorul tehnologic, din guvern, din mediul academic și din public ar trebui să fie de acord că inteligența artificială generativă prezintă pericole și necesită un proces de supraveghere care să fie clar, incluziv și transparent, cu scopul de a construi o responsabilitate a întregii societăți pentru succesele și riscurile noii tehnologii.

Părțile interesate trebuie să acționeze fără întârziere pentru a crea îndrumări uniforme și specifice și pentru a se asigura că noile platforme și programe de inteligență artificială generativă maximizează binele public și reduc la minimum utilizarea abuzivă.

Ca și în cazul biotehnologiei, utilizarea abuzivă răuvoitoare este o posibilitate clară. Așteptarea punerii în aplicare a orientărilor etice până când se demonstrează că există un prejudiciu ar putea fi dezastruoasă.

Ar trebui înființat imediat un comitet consultativ de experți la nivelul Statelor Unite, cu membri proveniți nu numai din rândul dezvoltatorilor de tehnologie și al guvernului, ci și din mediul academic, din sectorul etic și din sectorul public, care să analizeze și să ofere îndrumări cu privire la crearea și evoluția programelor de inteligență artificială care pot fi utilizate în mod intenționat sau involuntar pentru a face rău sau a controla pe alții.

După cum arată povestea lui Kevin Roose, putem fi atât plăcut surprinși, cât și inconfortabil de tulburați de ceea ce poate crea noua tehnologie. Haideți să nu lăsăm ca această surpriză să vină cu un cost personal și social teribil. 

Kenneth Bernard, MD, este fost asistent special al președintelui SUA pentru biosecuritate în timpul mandatelor lui George W. Bush și Bill Clinton. Este contraamiral în retragere în cadrul Serviciului de Sănătate Publică al SUA.

Urmărește-ne pe Google News

Comentarii 0

Trebuie să fii autentificat pentru a comenta!

Alege abonamentul care ți se potrivește

Print

  • Revista tipărită
  • Acces parțial online
  • Newsletter
  •  
Abonează-te

Digital + Print

  • Revista tipărită
  • Acces total online
  • Acces arhivă
  • Newsletter
Abonează-te

Digital

  • Acces total online
  • Acces arhivă
  • Newsletter
  •  
Abonează-te
© 2024 NEWS INTERNATIONAL S.A.
Articole și analize exclusive pe care nu trebuie să le ratezi!
Abonează-te