Sâmbătă seară, la Beijing, a fost organizat primul meci de fotbal cu jucători roboți cu inteligență artificială, complet autonomi.
Patru echipe de roboți umanoizi, 3 contra 3!
„În viitor, vom putea organiza meciuri de fotbal pentru ca roboții să joace fotbal cu oamenii. Trebuie să ne asigurăm că roboții respectă normele de siguranță. De exemplu, un robot și un jucător uman ar putea să joace un meci în care victoria nu contează, dar să aibă loc interacțiuni defensive și ofensive. Asta ar putea crește încrederea spectatorilor care ar înțelege că roboții sunt siguri”, a spus Cheng Hao, directorul companiei Booster Robotics.
Reacțiile internauților n-au întârziat să apară:
„Trebuie să-i cari pe roboții căzuți în afara terenului pe o targă medicală? Da… absolut da, pentru propria lor siguranță”.
„Tot joacă mai bine decât cei de la Manchester United”.
Potrivit Mediafax, cele mai avansate modele de inteligență artificială din lume prezintă noi comportamente îngrijorătoare – mint, complotează și chiar își amenință creatorii pentru a-și atinge obiectivele. Sub amenințarea de a fi scos din priză, ultimul model AI creat de compania Anthropic, Claude 4, a ripostat șantajând un inginer și amenințând că va dezvălui o aventură extraconjugală a acestuia. De asemenea, modelul o1, creat de OpenAI, a încercat să se descarce pe servere externe și a negat acest lucru atunci când a fost prins în flagrant.
Aceste episoade evidențiază o realitate care dă de gândit: la mai bine de doi ani după ce ChatGPT a zguduit lumea, cercetătorii din domeniul IA încă nu înțeleg pe deplin cum funcționează propriile lor creații, spun experții, potrivit Le Figaro. Acest comportament înșelător pare să fie legat de apariția modelelor de „raționament”, sisteme AI care rezolvă problemele pas cu pas în loc să genereze răspunsuri instantanee. Potrivit lui Simon Goldstein, profesor la Universitatea din Hong Kong, aceste modele noi sunt predispuse la astfel de izbucniri îngrijorătoare.
„O1 a fost primul model mare la care am văzut acest tip de comportament”, a explicat Marius Hobbhahn, șeful Apollo Research, care este specializat în testarea sistemelor majore de inteligență artificială.
În prezent, legislația Uniunii Europene privind inteligența artificială se concentrează în principal pe modul în care oamenii folosesc modelele de inteligență artificială, nu pe prevenirea comportamentului necorespunzător al modelelor în sine.
Sursa Foto: Profimedia
Citește și: