Un profesor la Universitatea Oxford avertizează că lansarea grăbită a sistemelor AI insuficient testate ar putea duce la un „moment Hindenburg” şi submina încrederea publicului în tehnologie.
Cursa pentru aducerea inteligenței artificiale pe piață a crescut riscul unui dezastru similar celui de la Hindenburg, care ar putea zdruncina încrederea globală în tehnologie, avertizează un cercetător de renume, de la una dintre cele mai prestigioase universităţi ale lumii.
Dezastrul Hindenburg, care dus la pierderea interesului pentru o tehnologie avansată
Michael Wooldridge, profesor de inteligență artificială la Universitatea din Oxford, este de părere că pericolul provine din presiunile comerciale enorme la care sunt supuse companiile de tehnologie pentru a lansa noi instrumente de inteligență artificială, jucătorii de pe piaţă din industria AI aflându-se într-o cursă frenetică pentru a câștiga utilizatori, înainte ca realele capabilități și potențialele deficiențe ale produselor pe care le oferă să devină pe deplin clare.
Răspândirea rapidă a chatboților cu inteligență artificială, cu „bariere de securitate” ușor de ocolit, arată cum interesele comerciale sunt puse mai presus de o mai atentă dezvoltare și testare a securității, spune Michael Wooldridge, citat de The Guardian. „Este un scenariu tehnologic clasic. Ai o tehnologie care este foarte, foarte promițătoare, dar nu a fost testată atât de riguros pe cât ţi-ați dori, iar presiunea comercială din spatele ei este insuportabilă”, afirmă expertul.
Wooldridge, care va susține miercuri o prelegere cu ocazia decernării Premiului Michael Faraday al Societății Regale, intitulată „Aceasta nu este inteligența artificială care ne-a fost promisă”, spune că un „moment Hindenburg” este foarte posibil, deoarece companiile se grăbesc să introducă instrumente de inteligență artificială foarte avansate.
Hindenburg, un dirijabil lung de 245 de metri care efectua zboruri peste Atlantic în Europa şi America, se pregătea să aterizeze în New Jersey în 1937 când a fost cuprins de flăcări și în doar câteva secunde s-a transformat într-o minge de foc, 36 de pasageri, membri ai echipajului și personal de la sol pierzându-şi viaţa. Incendiul a fost provocat de o scânteie care a aprins 200.000 de metri cubi de hidrogen ce mențineau dirijabilul în aer.
„Dezastrul Hindenburg a spulberat interesul global pentru dirijabile, iar din acel moment aceasta a devenit o tehnologie inactivă. În momentul de faţă o situaţie similară riscă să se întâmple cu inteligența artificială”, subliniază Wooldridge. Deoarece inteligența artificială este integrată în atât de multe sisteme, un incident major ar putea afecta aproape orice sector.
AI-ul ar putea bloca activităţile din aeroporturi sau duce la prăbuşirea unor mari companii
Scenariile menționate de Wooldridge includ actualizări software care ar putea avea consecinţe fatale pentru vehiculele autonome, atacuri cibernetice alimentate de inteligența artificială şi care ar avea potenţialul de a bloca la sol companiile aeriene sau duce la prăbușirea unor mari companii, asemenea cazului Băncii Barings, doar că de data aceasta din cauza faptul că AI-ul ar fi cel care ar acţiona într-un mod stupid. „Acestea sunt scenarii foarte, foarte probabile… Există multe moduri în care inteligența artificială ar putea provoca daune în văzul tuturor”, a mai spus savantul.
În ciuda acestor îngrijorări, Wooldridge susşine că nu atacă inteligența artificială modernă. El pornește de la decalajul dintre ceea ce se așteptau cercetătorii și ceea ce a fost livrat în momentul de faţă pe piaţă. Mulți experți se așteptau la o inteligență artificială care să calculeze soluții la probleme și să ofere răspunsuri fiabile și complete. „Inteligența artificială modernă nu este nici fiabilă, nici completă. Este foarte, foarte aproximativă”, a subliniat el.
Chatboţii de inteligenţă artificială nu sunt conştienţi când greşesc
Acest lucru rezultă din faptul că modelele lingvistice de mari dimensiuni, care stau la baza chatbot-urilor AI de astăzi, generează răspunsuri prin prezicerea următorului cuvânt sau a unei părți a unui cuvânt pe baza distribuțiilor de probabilitate învățate în timpul antrenamentului. Acest lucru duce la sisteme AI cu abilități „neregulate” – incredibil de eficiente la unele sarcini, dar foarte slabe la altele, după cum avertizează expertul.
Problema, potrivit lui Wooldridge, este că chatboții cu inteligență artificială greșesc imprevizibil și nu sunt conștienți de momentul în care greșesc, ci sunt concepuți să ofere răspunsuri sigure indiferent de situație. Atunci când aceste răspunsuri sunt oferite pe un ton uman și condescendent, pot induce cu uşurinţă oamenii în eroare, a adăugat el.
Avem nevoie de o inteligenţă artificială asemănătoare celei din Star Trek
Riscul, spune Wooldridge, este ca oamenii să înceapă să trateze inteligența artificială ca și cum ar fi ființă umană. Într-un studiu al Center for Democracy & Technology din 2025, aproape o treime dintre respondenţi ei au declarat că ei înşişi sau unii prieteni de-ai lor au avut o relaţie romantică cu o inteligenţă artificială.
„Companiile vor să prezinte AI-ul ca pe ceva cu trăsături asemănătoare celor umane, dar cred că este o cale foarte periculoasă. Trebuie să înțelegem că este vorba doar de foi de calcul, instrumente și nimic mai mult”, a mai avertizat Wooldridge.
Pe de altă parte, acesta vede aspecte pozitive în tipul de inteligență artificială descris în primii ani ai Star Trek. Într-un episod din 1968 numit „Ziua porumbelului”, Spock pune întrebări computerului navei Enterprise, care răspunde cu o voce și un ton foarte puţin asemănătoare celor umane, că nu există suficiente date pentru a oferi un răspuns.
„Nu asta primim noi. Noi primim un AI excesiv de sigur pe sine, care spune: ‘Da, iată răspunsul’… Poate că avem nevoie de o inteligență artificială care să ne vorbească cu vocea computerului din Star Trek. Niciodată nu ai crede că este o ființă umană”, este sfatul pe care îl oferă Michael Wooldridge.