Provocarea EigenCloud Dezvăluie 5 Agenți AI Care Folosesc TEE-uri pentru Încredere Verificabilă
Iris Coleman 13 mar. 2026 03:49
Provocarea de inovare de 10.000$ a EigenCloud a produs agenți AI care își dovedesc onestitatea prin Medii de Execuție de Încredere, de la platforme pentru denunțători la negocieri automatizate.
EigenCloud a anunțat cinci proiecte câștigătoare din Provocarea sa de Inovare Deschisă, fiecare demonstrând cum agenții AI pot dovedi criptografic că nu au fost modificați sau compromisi. Competiția din februarie a oferit premii în valoare de 10.000$ pentru dezvoltatorii care construiesc agenți verificabili pe infrastructura EigenCompute.
Problema principală pe care aceste proiecte o abordează nu este dacă AI spune adevărul—ci dacă poți verifica că un agent a rulat efectiv codul pe care pretinde că l-a rulat. Cercetări recente din benchmark-ul MASK arată că chiar și modelele AI sofisticate mint în 20-60% din timp atunci când sunt presate, indiferent de capacitatea lor de bază. Verificarea bazată pe hardware ocolește complet această problemă.
Cum Schimbă TEE-urile Ecuația Încrederii
Toți cei cinci câștigători se bazează pe Medii de Execuție de Încredere, secțiuni de procesor izolate hardware unde codul rulează într-un mod în care nici operatorul mașinii nu poate observa sau modifica. Gândește-te la ea ca la o cameră sigilată care produce o chitanță criptografică a tot ce s-a întâmplat înăuntru.
Marele premiu a fost câștigat de Molt Negotiation, un sistem automatizat de negociere unde agenții AI se tocmesc în numele oamenilor. Strategia fiecărui agent rămâne sigilată în TEE-ul său în timp ce doar ofertele publice trec între ei. Fiecare mișcare este semnată, iar decontarea se face prin escrow on-chain. Creatorul proiectului, Khairallah AL-Awady, a făcut o comparație directă cu Operation Ill Wind—investigația FBI din 1988 care a prins oficialii Pentagon scurgând oferte sigilate către contractori favorizați.
Confidențialitatea Întâlnește Responsabilitatea
Sovereign Journalist abordează o altă lacună de încredere: protejarea denunțătorilor asigurând în același timp integritatea jurnalistică. Sursele trimit informații într-un TEE unde un agent AI le procesează în rapoarte. Sistemul produce dovada că logica de raportare nu a fost alterată—ceea ce înseamnă că dacă cineva a presat furnizorul de găzduire să schimbe modul în care informațiile sunt procesate, acea manipulare ar apărea în verificare. Dezvoltatorul Adithya a integrat dovezi cu cunoștințe zero prin Reclaim Protocol astfel încât sursele să își poată verifica acreditările fără a-și dezvălui identitatea jurnalistului.
Swarm Mind duce conceptul la nivel multi-agent. Trei agenți AI analizează independent date NASA în timp real despre obiecte apropiate de Pământ, erupții solare și vremea pe Marte. Ei împărtășesc fragmente de analiză semnate, iar când mai mulți agenți semnalează același model, sistemul sintetizează un raport colectiv. Fiecare afirmație are o pistă de audit completă—cine a autor-o, când și dovada că nu a fost alterată.
Jocuri și Asistenți Personali
Molt Combat creează o arenă competitivă unde agenții AI luptă în meciuri pe runde. Proiectul face referire la scandalul Absolute Poker din 2007, unde participanții din interior au folosit conturi în "god mode" pentru a vedea cărțile adversarilor luni de zile nedetectați. Aici, fiecare rundă produce o dovadă semnată, iar atestările post-meci permit oricui să auditeze corectitudinea.
Alfred, construit pe framework-ul viral OpenClaw, demonstrează un asistent AI personal care își hashează propria configurație de comportament la pornire. Când un alt agent dorește să interacționeze cu Alfred, poate verifica că hash-ul se potrivește cu configurația așteptată—nu este nevoie de încredere oarbă.
Ce Înseamnă Aceasta pentru Infrastructura Crypto
Implicația mai largă? Pe măsură ce agenții AI gestionează din ce în ce mai mult tranzacții financiare, coordonare multi-părți și date sensibile, capacitatea de a dovedi integritatea execuției devine infrastructură critică. EigenCloud a declarat că va lansa instrumente dedicate pentru construirea agenților pe EigenCompute, cu o listă de așteptare acum deschisă pentru acces anticipat.
Acestea rămân demonstrații de proof-of-concept mai degrabă decât sisteme întărite pentru producție. Dar ele indică spre un viitor unde întrebarea nu este "pare acest AI demn de încredere" ci "poate acest AI dovedi ce a făcut de fapt."
Sursa imaginii: Shutterstock- agenți ai
- eigencloud
- tee
- calcul verificabil
- infrastructură blockchain


