
Ver en navegador
Patrocinador: Unichain - Intercambios más rápidos. Comisiones más bajas. Mayor liquidez. Explora Unichain en web y wallet.

📸 Instantánea del mercado: Después de un discurso sorprendentemente alcista del presidente de la Fed, Jerome Powell, en Jackson Hole, el mercado experimentó un rebote masivo en todos los ámbitos, con
Ethereum en particular saltando un 10% desde sus mínimos en menos de una hora.
Como resultado, los tokens
Base -que son el escenario estándar para beneficiarse de las subidas de Ethereum- se desplomaron desde sus mínimos, y muchos tokens de inteligencia artificial de la cadena tuvieron su rendimiento semanal en verde. El impulso fue rápido y decisivo, validando la posición de Base como el destino preferido para las jugadas vinculadas a ETH.
Entre los que están en verde tanto en el día como en la semana se incluyen:
- FLock.AI ($FLOCK) - una red descentralizada de entrenamiento y validación de modelos de IA, que subió un 30% en el día y un 70% en la semana, beneficiándose de una cotización en
Coinbase y siendo elegida como Socio Estratégico de IA por el Programa de Desarrollo de las Naciones Unidas. - Tokenbot ($CLANKER) - El launchbot favorito de Farcaster, sube un 13% en el día y un 23% en la semana.
- Mamo ($MAMO) - un popular agente DeFAI de rendimiento disponible en la aplicación Base, que subió un 9% en el día y un 20% en la semana.
- Venice ($VVV) - una pila de IA sin censura, subió un 4% en el día y un ~18% en la semana tras el lanzamiento de $DIEM, un token de computación negociable minado por los titulares de $VVV.
Contodo, esto sirve como un recordatorio de que cuando ETH se mueve, usted quiere estar mirando Base. Si bien Solana puede ofrecer algunas joyas destacadas, el impulso en torno a ETH en este momento hace que el seguimiento de Base de cerca puede pagar diez veces.

Nos guste o no, la IA manejará cada vez mayores cantidades de datos confidenciales, ya sean médicos, financieros o personales. A medida que esto crece, también lo hace el imperativo de que estos datos se manejen de forma segura. Aunque el cifrado actual funciona muy bien cuando los datos están quietos o se mueven entre servidores, en el momento en que hay que hacer algo con esos datos -es decir, inferirlos (cuando la IA los procesa para generar respuestas)- hay que descifrarlos. Nuestra información más sensible queda expuesta en el momento exacto en que más importa.
Entra en escena NilGPT, un chatbot de IA que da prioridad a la privacidad y que acaba de ser lanzado por la plataforma de computación confidencial
Nillion Networkpara hacer frente a estos retos. A diferencia de los servicios de inteligencia artificial tradicionales, que requieren una fe ciega en las promesas de las empresas, NilGPT incorpora la privacidad en su arquitectura central, sin dejar de ser accesible desde el navegador. A continuación he resumido su anuncio, que muestra las mejoras específicas que han introducido en el panorama actual de la IA privada, así como el modo en que estas consideraciones han influido en el diseño general de Nil.
Panorama actual de la IA privada
Como describe Nillionla IA privada no es exactamente "nueva". Los grandes modelos lingüísticos (LLM) ya se pueden ejecutar localmente en tu propio dispositivo para tener un control total sin que se envíen datos a ningún otro lugar. Pero, como hemos aprendido a lo largo del desarrollo de Internet, el alojamiento local tiene importantes limitaciones. En el caso de la IA, significa que la gente debe poseer un hardware potente (algo que la mayoría no tiene), tener los conocimientos técnicos necesarios para configurar los modelos (algo de lo que la mayoría carece) e, incluso si lo consiguen, tener dificultades para acceder a los chats a través de varios dispositivos.
Más preocupantes son las soluciones centralizadas de "lavado de privacidad". Algunos servicios de IA afirman ser privados, pero siguen estando controlados por una empresa que puede ver los datos de los usuarios. Se basan en promesas de no hacer mal uso de los datos, no en la seguridad real, que, como demuestra la historia, puede quebrarse rápidamente a la hora de la verdad. Del mismo modo, los servicios pseudodescentralizados afirman estar "descentralizados" (repartidos en múltiples sistemas), pero la empresa sigue controlándolo todo y puede ver los datos del usuario. Esto no es verdadera privacidad, ya que los datos no están protegidos durante su uso.
Enjoying this article?
Subscribe to Bankless or sign in

Quizá lo más engañoso sea la falacia de "no almacenar datos personales". Algunos servicios dicen que no almacenan datos personales como correos electrónicos, pero los datos sensibles (como información médica o financiera) se siguen enviando y procesando abiertamente, con el consiguiente riesgo de exposición. Tus síntomas médicos o tus preocupaciones financieras fluyen a través de sus servidores sin cifrar durante el procesamiento, visibles para cualquiera que tenga acceso al sistema.
Principios básicos de diseño de NilGPT
Teniendo en cuenta estas deficiencias comunes, el desarrollo de NilGPT se basó en cuatro principios fundamentales de diseño:
- Arquitectura a prueba de intrusiones: Los datos de los usuarios se protegen con un cifrado avanzado, que utiliza el cifrado local para bloquear el historial de chat en el dispositivo del usuario con una frase de contraseña, como si fuera una caja fuerte digital. A continuación, los datos encriptados se dividen en partes mediante el uso compartido de secretos y se almacenan en varios nodos nilDB independientes utilizando el cálculo multiparte (MPC), una técnica que permite a varias partes calcular algo conjuntamente sin revelar sus datos individuales. Esto garantiza que los datos sean inútiles sin la contraseña del usuario y que no se pueda acceder a ellos desde una única ubicación, evitando que queden expuestos incluso si un nodo es pirateado.
- Computación confidencial: Nadie, ni siquiera los que están detrás de NilGPT, puede ver lo que preguntan los usuarios, lo que responde la IA o su historial de chat. Esto se garantiza mediante Entornos de Ejecución de Confianza (TEE) -zonas seguras dentro del hardware informático que procesan los datos de forma aislada, impidiendo que incluso los propietarios del servidor accedan a ellos- y primitivas criptográficas, técnicas de seguridad avanzadas que protegen los datos durante el procesamiento.
- Garantías verificables: Aunque todavía no está disponible, NilGPT planea permitir a los usuarios comprobar por sí mismos que sus datos están seguros en el futuro, utilizando código abierto (software disponible públicamente que cualquiera puede inspeccionar), atestaciones TEE (pruebas de hardware que verifican que el entorno seguro funciona como se afirma) y criptografía demostrable (métodos matemáticos que garantizan la seguridad sin depender de secretos). Una vez implantadas, estas medidas permitirán a cualquiera auditar las promesas de NilGPT.
- Cero compromisos de UX: NilGPT ofrece todo esto en un formato estándar de "chatbot", haciendo de la navegación una experiencia familiar. Viene con opciones de creación de cuenta, ya sea a través de correo electrónico o mediante la conexión de su cartera, que se utiliza para guardar el historial de chat a través de dispositivos sin dejar de mantener los datos privados. También cuenta con tres "modos de agente" diferentes para adaptar la conversación: asistente de bienestar, asistente personal y acompañante.
Arquitectura técnica de NilGPT
Todo esto se consigue entrelazando tres componentes de la red de Nillion:
- nilCC (Nillion Confidential Compute): la plataforma central de computación segura que impulsa el backend de NilGPT, proporcionando la infraestructura de hardware y software esencial para ejecutar procesos de IA cifrados y privados. Funciona en servidores bare-metal (ordenadores dedicados que no se comparten con otros, como si se alquilara una casa entera en lugar de un apartamento en un edificio compartido) utilizando TEEs seguras. Esta configuración garantiza que ninguna empresa externa, como un proveedor de la nube, pueda acceder a los datos o registros de los usuarios.
- nilAI (Inteligencia Artificial de Nillion): Procesa las preguntas de los usuarios y genera respuestas. Se ejecuta dentro de nilCC utilizando una API RESTful (una forma estándar para que las aplicaciones se comuniquen entre sí a través de Internet). Mantiene las consultas y respuestas ocultas dentro del enclave seguro TEE, por lo que nadie puede verlas. Actualmente se utiliza el modelo Llama-3.1-8B-Instruct en NilGPT.
- nilDB: el sistema de almacenamiento descentralizado que guarda el historial de chat encriptado a través de múltiples ordenadores independientes (nodos) utilizando MPC, de modo que ningún nodo tiene todos los datos.
En la práctica, NilGPT funciona así:
Un usuario hace una pregunta a NilGPT, que se envía desde su navegador a nilAI. La IA genera una respuesta, que se devuelve al navegador del usuario. La respuesta y el historial de chat se cifran localmente en el dispositivo del usuario mediante una frase de contraseña. Los datos encriptados se dividen en partes y se almacenan en nodos nilDB. Para ver los chats anteriores, quizás en otro dispositivo, se recuperan los fragmentos y se desbloquean con la frase de contraseña del usuario. Sin la contraseña correcta, los datos aparecen como un galimatías.
Este enfoque multicapa crea sólidos mecanismos de privacidad. El cifrado local garantiza que los datos permanezcan bloqueados aunque alguien piratee los nodos de almacenamiento. Dividir los datos entre nodos significa que ningún nodo puede ver la imagen completa. Los enclaves seguros protegen los datos mientras la IA los procesa, manteniendo la privacidad durante toda la interacción.
Las opciones actuales para las soluciones de privacidad de la IA revelan un patrón preocupante: modelos locales que siguen estando fuera del alcance de la mayoría de los usuarios, servicios centralizados que dependen de las promesas de las empresas más que de las salvaguardas técnicas, y plataformas pseudodescentralizadas que siguen exponiendo los datos durante el procesamiento. En este contexto, NilGPT se presenta como una alternativa interesante.
Aprovechando el amplio conjunto de herramientas de privacidad que ofrece Nillion, NilGPT garantiza que los datos sensibles permanezcan protegidos durante todo su ciclo de vida. Se acabó el depender de promesas políticas o vagas condiciones de servicio. En su lugar, el sistema ofrecerá garantías técnicas de que ni siquiera quienes ejecuten NilGPT podrán acceder a las consultas, respuestas o historiales de chat de los usuarios. Pero, por ahora, estas garantías siguen siendo características futuras. Hasta que se pongan en marcha, los usuarios seguirán teniendo cierto grado de confianza, aunque notablemente menor que con los servicios de IA actuales.
El camino a seguir está claro: a medida que NilGPT se somete a auditorías independientes e implementa sus funciones de verificación, se distingue como un vehículo real y de buena fe para la IA privada. En un mundo en el que nuestros pensamientos y preocupaciones más delicados fluyen cada día a través de estas tecnologías, la cuestión no es si necesitamos alternativas privadas, sino con qué rapidez podemos construirlas.
Además, otras noticias de la semana....
🤖 AI Crypto
- Almanak - la preventa del protocolo DeFAI comenzó el jueves a través de Legion, recaudó $ 4,3M hasta ahora con cuatro días restantes
- Daydreams - introdujo el Daydreams Router, un acceso de una API a GPT-4.5, Claude, Groq, Gemini, etc., pagado en USDC a través de x402 en Base
- 🔥 ERC-8004 - nuevo estándar ETH introducido para el protocolo A2A mejorado, que permite interacciones sin confianza entre agentes que utilizan registros de identidad, reputación y validación onchain.
- Galaxy Digital - consiguió 1.400 millones de dólares para ampliar Helios, un centro de datos de IA de Texas, con el objetivo de 800 MW para situarse entre los campus de IA más grandes del mundo
- Venice - lanzó $DIEM en Base, un activo de cómputo de IA comercializable con acceso a API de $1/día incorporado, mintable solo por titulares de $VVV
Noticias generales
- Alibaba: lanza Qwen-Image-Edit, un modelo de IA para editar imágenes con texto en inglés o chino, que realiza tareas como la rotación de objetos y cambios a nivel de píxel.
- DeepSeek - lanzó su modelo V3.1 con una ventana contextual más grande
- Meta - Congeló la contratación de IA y , al parecer, planea otra reestructuración de sus divisiones de IA, la cuarta en sólo seis meses.
- OpenAI -
Sam Altman dijo que GPT-6 se centrará en la memoria, con el modelo llegando más rápido que el tiempo entre GPT-4 y 5 - 🔥 Gobierno de Estados Unidos - puso en marcha USAi, una plataforma para que las agencias federales utilicen herramientas de IA como chatbots, modelos de codificación y más en un entorno seguro