Elon Musk şi un grup de experţi în inteligenţă artificială şi de directori din industrie cer într-o scrisoare deschisă o pauză de şase luni în antrenarea unor sisteme mai puternice decât modelul GPT-4, recent lansat de OpenAI, invocând potenţiale riscuri pentru societate şi umanitate, scrie Reuters. 

Scrisoarea, transmisă de organizaţia non-profit Future of Life Institute (Institutul pentru Viitorul Vieţii), este semnată de peste 1.000 de persoane, între care Elon Musk, directorul general al Stability AI, Emad Mostaque, cercetători de la DeepMind, deţinut de Alphabet, precum şi experţi recunoscuţi din domeniul inteligenţei artificiale precum Yoshua Bengio şi Stuart Russell. 

Toţi solicită o pauză în dezvoltarea inteligenţei artificiale avansate până când protocoale de siguranţă comune pentru astfel de modele vor fi dezvoltate, implementate şi auditate de experţi independenţi.  „Sistemele puternice de inteligenţă artificială ar trebui să fie dezvoltate numai după ce suntem siguri că efectele lor vor fi pozitive şi că riscurile lor vor fi gestionabile”, se arată în scrisoare. Scrisoarea detaliază riscurile potenţiale pentru societate şi civilizaţie pe care le pun sistemele de inteligenţă artificială competitive – în special perturbări economice şi politice – şi solicită dezvoltatorilor să colaboreze cu factorii de decizie politică în ceea ce priveşte guvernanţa şi autorităţile de reglementare. 

„Sistemele puternice de inteligență artificială ar trebui să fie dezvoltate numai după ce suntem siguri că efectele lor vor fi pozitive și că riscurile lor vor fi gestionabile”, se arată în document. 

„Sistemele de inteligență artificială cu inteligență uman-competitivă pot prezenta riscuri profunde pentru societate și umanitate, după cum arată ample cercetări și după cum recunosc laboratoarele de vârf de inteligență artificială”, argumentează semnatarii. În scrisoare sunt detaliate potențiale riscuri la adresa societății și civilizației din cauza sistemelor de inteligență artificială ce pot provoca dereglări economice și politice, documentul solicitând dezvoltatorilor de astfel de sisteme să colaboreze cu factorii de decizie politică și autoritățile de reglementare.

Demersul acestor personalităţi vine în contextul în care şi Europol, forţa de poliţie a UE, s-a alăturat luni vocilor – tot mai multe – care exprimă în ultimul timp preocupările de natură etică şi juridică în legătură cu inteligenţa artificială avansată, cum ar fi ChatGPT. Europol a avertizat cu privire la potenţiala utilizare abuzivă a sistemului în încercările de phishing, dezinformare şi criminalitate informatică.  Sam Altman, directorul executiv al OpenAI, nu a semnat scrisoarea, a declarat pentru Reuters un purtător de cuvânt al Future of Life Institute.  În schimb, Elon Musk, a cărui companie de automobile Tesla foloseşte AI pentru un sistem de pilot automat, şi-a exprimat deschis îngrijorarea cu privire la AI.  De la lansarea sa, anul trecut, ChatGPT al OpenAI, susţinut de Microsoft, a determinat rivalii să accelereze dezvoltarea unor modele similare de limbaj, de mari dimensiuni, iar companiile să integreze modele generative de inteligenţă artificială în produsele lor. 

„Scrisoarea nu este perfectă, dar spiritul este corect: trebuie să încetinim până când vom înţelege mai bine ramificaţiile”, a declarat Gary Marcus, profesor emerit la Universitatea din New York. „Pot provoca daune serioase. Marii jucători devin tot mai secretoşi în legătură cu ceea ce fac, ceea ce face ca societăţii să-i fie greu să se apere împotriva unor eventuale daune care s-ar putea materializa”, arată profesorul.

sursa