- Nesa significa miracolo, in omaggio all’età dell’oro dell’intelligenza artificiale in cui viviamo. Una tecnologia sufficientemente avanzata, come l’intelligenza artificiale affidabile, è spesso indistinguibile dalla magia.
- Nesa è un Layer-1 leggero che esegue inferenze AI critiche su query che richiedono un elevato livello di privacy, sicurezza e affidabilità utilizzando metodi avanzati on-chain, tra cui l’apprendimento automatico a conoscenza zero (ZKML), l’apprendimento diviso (SL) e altro ancora.
- Nesa è stata creata come alternativa a ChatGPT e ad altre piattaforme di inferenza oggi centralizzate e controllate dai principali attori. Queste piattaforme non hanno visibilità o responsabilità nel loro output sulle tue transazioni critiche e non forniscono alcuna privacy nei tuoi dati e risultati. Questo è un grosso problema nell’AI.
- Limitazioni nell’architettura centralizzata. Sebbene comunemente utilizzate, le architetture di elaborazione centralizzate presentano rischi significativi correlati alla privacy dei dati, ai colli di bottiglia computazionali, all’output deterministico e ai singoli punti di errore. Il costo proibitivo e la scarsità di risorse di elaborazione ad alte prestazioni, come le GPU avanzate, impediscono l’adozione di massa dell’unica controopzione alla centralizzazione, ovvero l’AI decentralizzata open source. Queste sfide limitano ulteriormente la capacità di contribuire allo sviluppo, alla formazione, alla messa a punto e all’esecuzione di modelli di AI. Ciò impedisce gravemente l’adozione di modelli di AI all’avanguardia (SOTA) per aziende e sviluppatori, nonché la ricerca condivisa in tutto il mondo.
- Le sfide legate alla sicurezza ostacolano ulteriormente gli sforzi collaborativi per eseguire l’AI oggi. Tecniche come l’adattamento continuo e l’adattamento del dominio offrono soluzioni parziali consentendo la condivisione del modello senza scambio diretto di dati. Tuttavia, questi metodi sono suscettibili di attacchi backdoor e spesso comportano prestazioni del modello subottimali a causa delle limitazioni della messa a punto semi-supervisionata o non supervisionata. Nel complesso, questi problemi hanno implicazioni nel mondo reale per le aziende che richiedono inferenza critica. Nel dominio finanziario, ad esempio, dove le istituzioni analizzano grandi quantità di dati transazionali sensibili, i sistemi centralizzati tradizionali non riescono a soddisfare i severi requisiti di riservatezza e sicurezza dei dati, mentre i sistemi decentralizzati esistenti non riescono a soddisfare l’esigenza sia di riservatezza che di verificabilità .
- Soluzione privata, sicura e decentralizzata di Nesa. Abbiamo creato il primo marketplace di query decentralizzato, un grande archivio di modelli AI per Web3 alimentato da un’economia di ricompensa per sviluppatori AI, interrogatori, minatori e revisori di modelli. Questo è il primo repository globale per AI decentralizzato e on-chain. Nota che il nostro archivio di modelli va oltre i grandi modelli linguistici (LLM), ma include anche modelli leader per visioni (come i modelli linguistici di visione) e altre modalità chiave. Inoltre, supportiamo anche piccoli modelli proprietari per aziende e privati ​​per misure di sicurezza e privacy elevate.
- Il funzionamento dell’inferenza su Nesa è semplice. Il Layer-1 di Nesa interroga in modo affidabile i modelli AI off-chain mantenendo segreti i loro parametri e output. La nostra rete di mining raggiunge il consenso e quindi trasmette queste prove affidabili on-chain tramite oracoli di sistema.
- Nesa introduce il primo approccio di sharding ibrido indipendente dal modello stratificato su un protocollo di co-ottimizzazione della privacy basato su hardware e software. Questa soluzione distribuisce carichi computazionali su più nodi su una rete di inferenza decentralizzata. Il protocollo di inferenza distribuita di Nesa fornisce elaborazione dei dati che preserva la privacy, facilitando al contempo l’esecuzione scalabile e verificabile dell’inferenza AI. La figura seguente evidenzia i nostri componenti chiave.
- Questo nuovo protocollo abbassa notevolmente la barriera all’ingresso per i nodi partecipanti, adattandosi a vari livelli di capacità computazionali, il che è particolarmente pertinente dati gli elevati requisiti hardware dei sistemi concorrenti che limitano la partecipazione all’inferenza solo alle entità con accesso alle GPU di livello superiore. Consentendo anche ai nodi con risorse limitate di contribuire come validatori, il protocollo di Nesa democratizza l’inferenza AI e rende la partecipazione alla rete accessibile a tutti.
- Innovazioni di Nesa. Questo libro introduce due innovazioni distinte di Nesa. Iniziamo con uno sguardo dettagliato a (1) il nostro nuovo framework di formazione e inferenza distribuito e decentralizzato basato sullo sharding indipendente dal modello, per poi passare a (2) i metodi principali per preservare la sua sicurezza e privacy tramite apprendimento automatico a conoscenza zero (ZKML), verifica basata sul consenso e apprendimento diviso.
- In modo più dettagliato, questo libro fornirà dettagli sul nostro design architettonico decentralizzato, sui progressi crittografici di Nesa in termini di sicurezza e privacy e sulla struttura tokenomica della piattaforma, nonché sulle implicazioni più ampie del nostro progetto nel rimodellare il panorama delle applicazioni di intelligenza artificiale decentralizzate.
conto x/twitter → link
conto discord → link