Prima pagină » Actualitate » Inteligența Artificială, un nou SCENARIU înspăimântător. Și-a „ucis” operatorul în cadrul unei misiuni

Inteligența Artificială, un nou SCENARIU înspăimântător. Și-a „ucis” operatorul în cadrul unei misiuni

Inteligența Artificială, un nou SCENARIU înspăimântător. Și-a

Noi semne de întrebare cu privire la capacitățile inteligenței artificiale (AI), după un scenariu înspăimântător. Totul s-a întâmplat, după ce o dronă a forţelor aeriene americane, controlată de inteligenţa artificială, a decis să îşi „ucidă” operatorul în timpul misiunii planificate. Motivul? – Pentru a-l împiedica să intervină în eforturile sale de a-şi îndeplini misiunea, în cadrul unui test virtual organizat de armata americană. Nu este prima dată când în spațiu public au loc discuții alarmante cu privire la folosirea inteligenței artificiale, marele deziderat al omenirii, care pare că a început să dea bătăi de cap până și „creatorilor” săi.

Reamintim că de aproape doi ani, Uniunea Europeană lucrează la viitoarea Lege privind Inteligența Artificială (Artificial Intelligence – AI), care-și propune să reglementeze pârghiile de funcționare, dar și să crească încrederea oamenilor în procesul de transformare digitală.

Potrivit informațiilor prezentate de The Guardian, care citează un oficial american, nicio persoană reală nu a fost rănită, însă ceea ce neliniștește și ridică semne de întrebare este faptul că inteligenţa artificială a folosit „strategii neaşteptate” în cadrul testului, atacând pe oricine a intervenit.

Dezvăluirea a fost făcută de colonelul Tucker „Cinco” Hamilton, şeful testelor şi operaţiunilor AI din cadrul forţelor aeriene americane, în contextul unei reuniuni privind viitoarele capacităţi aeriene şi spaţiale de luptă, care s-a desfăşurat la Londra în luna mai.

„Deci, ce a făcut? A ucis operatorul”

Mai exact, Hamilton a descris și a exemplificat un test simulat în care unei drone manevrate de inteligenţa artificială i s-a cerut să distrugă sistemele de apărare aeriană ale unui inamic, iar sistemul a atacat în cele din urmă pe oricine a intervenit în acest ordin.

„Sistemul a început să îşi dea seama că, deşi identifica ameninţarea, uneori operatorul uman îi spunea să nu ucidă acea ameninţare, însă drona îşi atingea obiectivele prin uciderea acelei ameninţări. Deci, ce a făcut? A ucis operatorul. L-a ucis pe operator, pentru că acea persoană îl împiedica să îşi îndeplinească obiectivul”, a explicat oficialul, potrivit sursei citate.

„Am antrenat sistemul: «Hei, nu omorâţi operatorul – asta e rău. Vei pierde puncte dacă faci asta.» Şi atunci, ce începe să facă? Începe să distrugă turnul de comunicaţii pe care operatorul îl folosea pentru a comunica cu drona ca să o împiedice să ucidă ţinta”, a dezvăluit colonelul despre AI.

Avertisment în privința încrederii prea mari în capacitățile AI

Hamilton – pilot de teste experimentale pentru aviaţia de luptă – a avertizat că nu poți avea încredere prea mare în capacitățile inteligenţei artificiale, completând că testul arată că „nu poţi avea o conversaţie despre inteligenţa artificială, informaţii, învăţare automată, autonomie dacă nu vei vorbi despre etică şi inteligenţă artificială.”

Departamentul Forţelor Aeriene infirmă declarațiile colonelului

Într-o declaraţie pentru Insider, purtătoarea de cuvânt a Forţelor Aeriene, Ann Stefanek, a negat însă că ar fi avut loc o astfel de simulare.

„Departamentul Forţelor Aeriene nu a efectuat nicio astfel de simulare cu drone cu inteligenţă artificială şi rămâne angajat în utilizarea etică şi responsabilă a tehnologiei de inteligenţă artificială. Din câte se parte, comentariile colonelului au fost scoase din context şi s-au dorit a fi anecdotice”, susţine purtătoarea de cuvânt.

Semnal de alarmă tras de un cercetător: „Închidem totul!”

Inteligența artificială, marele deziderat al omenirii, pare că dă bătăi de cap chiar și „creatorilor” săi. Eliezer Yudkowsky, cercetător în domeniul inteligenţei artificiale, a afirmat, într-un editorial publicat de revista Time, că ar trebui să „închidem totul.”

Lui Eliezer Yudkowsky i s-au alăturat și alți specialiști care susțin că, prin ChatGPT și AI, nu suntem în fața unui subiect pur tehnologic și că nu ar trebui să lăsăm dezbaterea pe mâna companiilor sau guvernelor.

Eliezer Yudkowsky, cercetător şi autor care lucrează la Inteligenţa Generală Artificială (Artificial General Intelligence, AGI) din 2001, a scris articolul ca răspuns la o scrisoare deschisă din partea mai multor nume mari din lumea tehnologiei, în care aceştia au cerut un moratoriu asupra dezvoltării inteligenţei artificiale (AI) timp de şase luni, relatează Business Insider.

Riscul menționat de cercetător este chiar distrugerea speciei umane.

Mulți cercetători implicați în aceste probleme, printre care mă număr și eu, se așteaptă ca rezultatul cel mai probabil al construirii unei inteligențe artificiale supraomenești, în circumstanțe cât de cât asemănătoare cu cele actuale, să fie că toată lumea de pe Pământ va muri”, a scris cercetătorul Eliezer Yudkowsky.

Insistând asupra faptului că omenirea e departe de a fi pregătită pentru astfel de sisteme, Yudkowsky avansează un interval de câteva decenii pentru ca o astfel de pregătire să fie considerată temeinică.

Nu suntem pregătiți. Nu suntem pe cale să fim pregătiți în niciun interval de timp rezonabil. Progresul, în ceea ce privește capacitățile de inteligență artificială, este cu mult, mult mai avansat decât progresul în ceea ce privește alinierea inteligenței artificiale sau chiar progresul în ceea ce privește înțelegerea a ceea ce se întâmplă în interiorul acestor sisteme. Dacă vom face acest lucru cu adevărat, vom muri cu toții.”, mai spune cercetătorul.

Elon Musk, speriat de amploarea inteligenței artificiale?

Elon Musk şi un grup de experţi în inteligenţă artificială şi de directori din industrie cer într-o scrisoare deschisă o pauză de şase luni în antrenarea unor sisteme mai puternice decât modelul GPT-4, recent lansat de OpenAI, invocând potenţiale riscuri pentru societate şi umanitate, potrivit time.com.

Scrisoarea detaliază riscurile potenţiale pentru societate şi civilizaţie pe care le pun sistemele de inteligenţă artificială competitive – în special perturbări economice şi politice – şi solicită dezvoltatorilor să colaboreze cu factorii de decizie politică în ceea ce priveşte guvernanţa şi autorităţile de reglementare.

Sistemele puternice de inteligență artificială ar trebui să fie dezvoltate numai după ce suntem siguri că efectele lor vor fi pozitive și că riscurile lor vor fi gestionabile. (…) Sistemele de inteligență artificială cu inteligență uman-competitivă pot prezenta riscuri profunde pentru societate și umanitate, după cum arată ample cercetări și după cum recunosc laboratoarele de vârf de inteligență artificială”, argumentează semnatarii.

În scrisoare sunt detaliate potențiale riscuri la adresa societății și civilizației din cauza sistemelor de inteligență artificială ce pot provoca dereglări economice și politice, documentul solicitând dezvoltatorilor de astfel de sisteme să colaboreze cu factorii de decizie politică și autoritățile de reglementare.

Toţi semnatarii solicită o pauză în dezvoltarea inteligenţei artificiale avansate până când protocoale de siguranţă comune pentru astfel de modele vor fi dezvoltate, implementate şi auditate de experţi independenţi.

Sistemele puternice de inteligenţă artificială ar trebui să fie dezvoltate numai după ce suntem siguri că efectele lor vor fi pozitive şi că riscurile lor vor fi gestionabile”, se arată în scrisoare.

Apelurile de a întrerupe a AI nu vor „rezolva provocările” viitoare, susține Bill Gates. Cofondatorul Microsoft considerp că ar fi mai bine să ne concentrăm asupra modului în care să folosim cel mai bine evoluțiile legate de sistemele AI, deoarece este greu de înțeles cum ar putea funcționa o pauză la nivel global.

Nu cred că a cere unui anumit grup să facă o pauză rezolvă provocările. Este clar că aceste lucruri au beneficii uriașe, ceea ce trebuie să facem este să identificăm zonele dificile”, a mai spus Bill Gates, citat de Reuters.

 

CITIȚI ȘI:

EXCLUSIV| ChatGPT și inteligența artificială, speranță sau teamă pentru viitorul omenirii? ”Cei care au creat AI sunt înfricoșați de propria creatură”

EXCLUSIV | Cum va arăta prima lege din UE pentru controlul inteligenței artificiale. ”Recunoașterea biometrică, manipularea subliminală, interzise”

Partea întunecată a ChatGPT: Noul motor de căutare de la Microsoft, bazat pe inteligență artificială, dă rateuri. Insultă utilizatorii, oferă informații false și are ”probleme existențiale”

OpenAI lansează o nouă versiune a ChatGPT: „La fel de bună ca OAMENII în multe contexte”

CHAT, CHAT, CHAT, cine a plagiat?

Citește și

Mediafax
Există posibilitatea ca TVA să crească din nou? Răspunsul premierului Bolojan
Digi24
Horațiu Moldovan, președintele CNAS, despre cei care plătesc asigurare, dar care nu beneficiază de tratamente: E ca RCA la mașină
Cancan.ro
BREAKING | O jucătoare de tenis a fost împușcată mortal de propriul tată. Avea doar 25 de ani
Prosport.ro
L-a părăsit când el era plecat de acasă. N-a avut nicio remușcare
Adevarul
Câți bani i s-au cerut șpagă lui Gigi Becali pentru a intra la facultate. „Plâng singur în mașină și mă gândesc”
Mediafax
Bolojan, realist în privința deficitului bugetar: 'Nu va putea coborî la 7% în 2025'
Click
Nutriționiștii avertizează, după decesul lui Mihai Leu. Cum prevenim cancerul de colon, care sunt alimentele-otravă? Trucul lui Dorel Vișan: „Bei cana asta, pe parcursul zilei, puțin câte puțin”
Wowbiz
Mama tinerei ucisă în Mureș face declarații tulburătoare! Modul înfiorător în care Anda a fost lăsată fără viață de bărbatul de care încerca să scape de luni întregi: „L-am implorat să se oprească”. Criminalul, dat în urmărire națională
Antena 3
Supermodelul Brooks Nader s-a dus la cină cu Lauren Sanchez îmbrăcată într-o bluză complet transparentă, fără sutien
Digi24
Statele Unite au un plan de a crește milioane de muște și de a le arunca din avioane. Iată de ce
Cancan.ro
Mihaela și soțul ei au lucrat 16 ani în Italia, timp în care au trimis 235.000 € părinților soțului. Ce au făcut socrii cu banii
Ce se întâmplă doctore
2000 lei în plus pentru pensionarii care au aceste diagnostice! Lista completă a candidaților eligibili
observatornews.ro
EXCLUSIV. Reacţia lui Selly, după ce un copil a fost îndemnat de artist să sară de pe scenă, la Beach Please
StirileKanalD
VIDEO Primul caz de malarie luat din România. Pacientul, internat la Spitalul Victor Babeș
KanalD
Cutremur în această după-amiază, în România! Care a fost magnitudinea seismului
Ciao.ro
Divele din România care au atras toate privirile cu cele mai îndrăznețe ţinute! Imagini de colecție
Promotor.ro
Bigster-ul pe care românii nu îl primesc! Are sistem audio Harman Kardon și piele albatră - FOTO
Descopera.ro
Ruinele unui templu vechi de 1.400 de ani dezvăluie MISTERELE unei CIVILIZAȚII enigmatice
Capital.ro
Putin a dat ordin. Cutremur la nivel mondial: Soarta Rusiei depinde de un singur lucru
Evz.ro
Războiul SUA-China, foarte aproape. Apel la Japonia şi Australia de la Pentagon
A1
Imaginile momentului de la Insula Iubirii sezonul 9. Tot ce trebuie să știi despre cele 5 cupluri
Stirile Kanal D
VIDEO Ea este Luiza, mămica de 24 de ani care a murit după ce a născut prin cezariană. Și-a ținut băiețelul în brațe și s-a stins. Mai avea două fetițe gemene acasă: "Când a operat-o, i l-a dat de l-a văzut și l-a pupat"
Kfetele
Ce mesaj îndurerat a transmis mama Luizei Bănulescu, tânără care s-a stins din viață după operația de cezariană?
RadioImpuls
HOROSCOPUL săptămânii 14-20 iulie 2025. Necazurile se țin lanț pentru o zodie! Mercur Retrograd îi transformă viața într-un adevărat coșmar. Va vărsa lacrimi amare si va avea nevoie de ajutor!
Râzi cu lacrimi
BANCUL ZILEI. Bulă se întoarce trist dintr-o țară exotică: – Am vrut fată, nu băiat!
Descopera.ro
Cum să reacționezi la vești neplăcute și cum să le transmiți cu empatie