Gadgetisimo » AI » Anthropic elimină pe furiș politicile Biden
Anthropic

Anthropic elimină pe furiș politicile Biden

O știți pe aia „a se da după cum bate vântul” sau, dacă forțăm nota, „nu se știe ca pământul, din ce parte bate vântul”? Deși, în cazul acesta, știm de unde vine vântul și norocul. Cam așa se pare că e și cu principiile astea.

Anthropic a eliminat în tăcere de pe site-ul său mai multe angajamente voluntare pe care compania le-a luat împreună cu administrația Biden în 2023 pentru a promova inteligența artificială sigură și „demnă de încredere”.

Angajamentele includeau promisiuni de partajare a informațiilor privind gestionarea riscurilor IA în industrie și la nivel guvernamental, precum și cercetări privind prejudecățile și discriminarea în domeniul IA. Acestea au fost șterse săptămâna trecută din hub-ul de transparență al Anthropic, potrivit grupului de supraveghere a AI, The Midas Project.

Noua (vechea) administrație Trump a indicat că abordarea sa privind guvernanța AI va fi foarte diferită.
Astfel, agențiile federale au primit directive să promoveze dezvoltarea inteligenței artificiale „fără prejudecăți ideologice”, care să susțină „înflorirea umană, competitivitatea economică și securitatea națională”. În mod important, ordinul lui Trump nu a făcut nicio mențiune cu privire la combaterea discriminării în AI, care fusese un principiu cheie al inițiativei lui Biden.

Anthropic nu este singura companie care, în ultimul timp, și-a aliniat strategia la noua stăpânire (din Mordor) de la Casa Albă. În același domeniu, și OpenAI a anunțat că ar îmbrățișa „libertatea intelectuală… indiferent cât de provocator sau controversat poate fi un subiect”.

Puțină libertate de exprimare nu strică. Oricum mă enerva la culme când, folosind un model AI, primeam răspunsuri de genul „nu poate să răspundă” sau „nu poate detalia pe marginea unui subiect pentru a nu încălca nu știu ce”, și folosea niște cuvinte complicate din care nu înțelegeai nimic.
Adică stai puțin, mai „Skynet”, tu decizi pentru mine? Păi lasă-mă pe mine să decid dacă răspunsul respectiv încalcă ceva.

DAR, în același timp, așa cum aceste modele AI puteau fi instruite să omită anumite informații sau să nu răspundă la anumite întrebări, pot fi de asemenea instruite să exacerbeze anumite informații sau să le prezinte într-o manieră plăcută pentru unii și neplăcută pentru alții.
Iar după cum au pornit lucrurile, nu e exclus să vedem astfel de situații în viitor.

Până la urmă, ce înseamnă niște reglementări pentru o companie? Înseamnă bani cheltuiți pentru a se alinia. Cu cât aceste reglementări sunt mai puține, cu atât libertatea de manevră și profiturile sunt mai mari.

Anthropic a fost fondată de foști angajați ai OpenAI, care au dezvoltat modelul concurent AI numit Claude. Google și Amazon sunt printre cei mai mari investitori, cu 2 miliarde, respectiv 4 miliarde de dolari investiți.

Claude AI

Sursa: TechCrunch


Back To Top
Gadgetisimo
Prezentare generală a confidențialității

Acest site folosește cookie-uri pentru a-ți putea oferi cea mai bună experiență în utilizare. Informațiile cookie sunt stocate în navigatorul tău și au rolul de a te recunoaște când te întorci pe site-ul nostru și de a ajuta echipa noastră să înțeleagă care sunt secțiunile site-ului pe care le găsești mai interesante și mai utile.