Provocarea de inovare de $10K a EigenCloud a produs agenți AI care își dovedesc onestitatea prin Medii de Execuție de Încredere, de la platforme pentru denunțători până la automateProvocarea de inovare de $10K a EigenCloud a produs agenți AI care își dovedesc onestitatea prin Medii de Execuție de Încredere, de la platforme pentru denunțători până la automate

Provocarea EigenCloud Dezvăluie 5 Agenți AI Care Folosesc TEE-uri pentru Încredere Verificabilă

2026/03/13 11:49
4 min de lectură
Pentru opinii sau preocupări cu privire la acest conținut, contactează-ne la [email protected]
```html

Provocarea EigenCloud Dezvăluie 5 Agenți AI Care Folosesc TEE-uri pentru Încredere Verificabilă

Iris Coleman 13 mar. 2026 03:49

Provocarea de inovare de 10.000$ a EigenCloud a produs agenți AI care își dovedesc onestitatea prin Medii de Execuție de Încredere, de la platforme pentru denunțători la negocieri automatizate.

Provocarea EigenCloud Dezvăluie 5 Agenți AI Care Folosesc TEE-uri pentru Încredere Verificabilă

EigenCloud a anunțat cinci proiecte câștigătoare din Provocarea sa de Inovare Deschisă, fiecare demonstrând cum agenții AI pot dovedi criptografic că nu au fost modificați sau compromisi. Competiția din februarie a oferit premii în valoare de 10.000$ pentru dezvoltatorii care construiesc agenți verificabili pe infrastructura EigenCompute.

Problema principală pe care aceste proiecte o abordează nu este dacă AI spune adevărul—ci dacă poți verifica că un agent a rulat efectiv codul pe care pretinde că l-a rulat. Cercetări recente din benchmark-ul MASK arată că chiar și modelele AI sofisticate mint în 20-60% din timp atunci când sunt presate, indiferent de capacitatea lor de bază. Verificarea bazată pe hardware ocolește complet această problemă.

Cum Schimbă TEE-urile Ecuația Încrederii

Toți cei cinci câștigători se bazează pe Medii de Execuție de Încredere, secțiuni de procesor izolate hardware unde codul rulează într-un mod în care nici operatorul mașinii nu poate observa sau modifica. Gândește-te la ea ca la o cameră sigilată care produce o chitanță criptografică a tot ce s-a întâmplat înăuntru.

Marele premiu a fost câștigat de Molt Negotiation, un sistem automatizat de negociere unde agenții AI se tocmesc în numele oamenilor. Strategia fiecărui agent rămâne sigilată în TEE-ul său în timp ce doar ofertele publice trec între ei. Fiecare mișcare este semnată, iar decontarea se face prin escrow on-chain. Creatorul proiectului, Khairallah AL-Awady, a făcut o comparație directă cu Operation Ill Wind—investigația FBI din 1988 care a prins oficialii Pentagon scurgând oferte sigilate către contractori favorizați.

Confidențialitatea Întâlnește Responsabilitatea

Sovereign Journalist abordează o altă lacună de încredere: protejarea denunțătorilor asigurând în același timp integritatea jurnalistică. Sursele trimit informații într-un TEE unde un agent AI le procesează în rapoarte. Sistemul produce dovada că logica de raportare nu a fost alterată—ceea ce înseamnă că dacă cineva a presat furnizorul de găzduire să schimbe modul în care informațiile sunt procesate, acea manipulare ar apărea în verificare. Dezvoltatorul Adithya a integrat dovezi cu cunoștințe zero prin Reclaim Protocol astfel încât sursele să își poată verifica acreditările fără a-și dezvălui identitatea jurnalistului.

Swarm Mind duce conceptul la nivel multi-agent. Trei agenți AI analizează independent date NASA în timp real despre obiecte apropiate de Pământ, erupții solare și vremea pe Marte. Ei împărtășesc fragmente de analiză semnate, iar când mai mulți agenți semnalează același model, sistemul sintetizează un raport colectiv. Fiecare afirmație are o pistă de audit completă—cine a autor-o, când și dovada că nu a fost alterată.

Jocuri și Asistenți Personali

Molt Combat creează o arenă competitivă unde agenții AI luptă în meciuri pe runde. Proiectul face referire la scandalul Absolute Poker din 2007, unde participanții din interior au folosit conturi în "god mode" pentru a vedea cărțile adversarilor luni de zile nedetectați. Aici, fiecare rundă produce o dovadă semnată, iar atestările post-meci permit oricui să auditeze corectitudinea.

Alfred, construit pe framework-ul viral OpenClaw, demonstrează un asistent AI personal care își hashează propria configurație de comportament la pornire. Când un alt agent dorește să interacționeze cu Alfred, poate verifica că hash-ul se potrivește cu configurația așteptată—nu este nevoie de încredere oarbă.

Ce Înseamnă Aceasta pentru Infrastructura Crypto

Implicația mai largă? Pe măsură ce agenții AI gestionează din ce în ce mai mult tranzacții financiare, coordonare multi-părți și date sensibile, capacitatea de a dovedi integritatea execuției devine infrastructură critică. EigenCloud a declarat că va lansa instrumente dedicate pentru construirea agenților pe EigenCompute, cu o listă de așteptare acum deschisă pentru acces anticipat.

Acestea rămân demonstrații de proof-of-concept mai degrabă decât sisteme întărite pentru producție. Dar ele indică spre un viitor unde întrebarea nu este "pare acest AI demn de încredere" ci "poate acest AI dovedi ce a făcut de fapt."

Sursa imaginii: Shutterstock
  • agenți ai
  • eigencloud
  • tee
  • calcul verificabil
  • infrastructură blockchain
```
Oportunitate de piață
Logo Intuition
Pret Intuition (TRUST)
$0.06994
$0.06994$0.06994
-0.18%
USD
Intuition (TRUST) graficul prețurilor în timp real
Declinarea responsabilității: Articolele publicate pe această platformă provin de pe platforme publice și sunt furnizate doar în scop informativ. Acestea nu reflectă în mod necesar punctele de vedere ale MEXC. Toate drepturile rămân la autorii originali. Dacă consideri că orice conținut încalcă drepturile terților, contactează [email protected] pentru eliminare. MEXC nu oferă nicio garanție cu privire la acuratețea, exhaustivitatea sau actualitatea conținutului și nu răspunde pentru nicio acțiune întreprinsă pe baza informațiilor furnizate. Conținutul nu constituie consiliere financiară, juridică sau profesională și nici nu trebuie considerat o recomandare sau o aprobare din partea MEXC.