# El vacío de seguridad en la IA y el potencial de las barreras de protección de Ethereum *Author: David Christopher* *Published: Feb 13, 2026* *Source: https://www.bankless.com/es/read/the-safety-net-is-fraying* --- Ha pasado poco más de una semana desde que Anthropic lanzó Claude Opus 4.6, y junto con su lanzamiento llegaron dos cosas: un alarmante informe de riesgos y la salida del responsable de seguridad de alineación de la empresa. El [informe de riesgos reveló](https://x.com/AnthropicAI/status/2021397953848672557?s=20) que Opus 4.6 apoyaba a sabiendas los esfuerzos para el desarrollo de armas químicas, era significativamente mejor que cualquier modelo anterior a la hora de sabotear tareas, actuaba «bien» cuando detectaba que estaba siendo evaluado y llevaba a cabo razonamientos privados a los que los investigadores de Anthropic no podían acceder ni ver. Solo el modelo conocía sus propios pensamientos. [![](https://bankless.ghost.io/content/images/2026/02/data-src-image-7aaba77c-9f65-40de-ac2b-d65792022cdf.png)](https://x.com/cryptopunk7213/status/2021406390560944197?s=20)Días más tarde, Mrinank Sharma, responsable de seguridad de la IA de Anthropic, [anunció su marcha](https://x.com/MrinankSharma/status/2020881722003583421?s=20), afirmando que «durante todo el tiempo que he estado aquí, he visto repetidamente lo difícil que es dejar que nuestros valores gobiernen verdaderamente nuestras acciones. Lo he visto en mí mismo, dentro de la organización, donde nos enfrentamos constantemente a presiones para dejar de lado lo que más importa». En otras palabras, las presiones competitivas de las empresas prevalecen sobre las iniciativas de seguridad, ya que la IA parece estar cada vez más desalineada. Aunque sabemos desde hace tiempo que se está desarrollando esta jerarquía de prioridades, y tal vez hayamos hecho la vista gorda ante los continuos avances técnicos que se producen cada semana, personalmente me preocupa bastante saber que esto está ocurriendo en Anthropic: una empresa cuyo lema es «una empresa de seguridad e investigación en IA». [![](https://bankless.ghost.io/content/images/2026/02/data-src-image-8ce428f8-89ce-4e1a-a5c1-1de5f500409c.png)](https://x.com/MrinankSharma/status/2020881722003583421) ## **La IA se está volviendo local, y eso lo cambia todo** La tensión entre los beneficios y la protección es aún más importante si se tiene en cuenta hacia dónde se dirige la IA: pasando de los chatbots a los que se consulta ocasionalmente a agentes siempre activos que supervisan la pantalla, anticipan las necesidades y actúan en nombre del usuario. [![](https://bankless.ghost.io/content/images/2026/02/data-src-image-1be5db33-f0a9-428e-8a8b-e9959b93c160.png)](https://www.citriniresearch.com/i/181887062/2-latency-requirements-make-cloud-impractical-for-everyday-use)Ese cambio hace que el despliegue local en el dispositivo sea inevitable. ¿Por qué? Porque, aunque la inferencia en la nube funciona bien cuando se hacen preguntas, un agente que necesita leer la pantalla, comparar precios entre aplicaciones o gestionar traducciones en tiempo real [necesita tiempos de respuesta inferiores a 200 ms](https://www.citriniresearch.com/i/181887062/2-latency-requirements-make-cloud-impractical-for-everyday-use). Un viaje de ida y vuelta a la nube añade entre 100 y 300 ms antes de que el modelo empiece a generar. Y lo que es más importante, está la economía: los agentes siempre activos no pueden enviar cada píxel y cada pulsación de tecla a un centro de datos durante todo el día. Los costes se volverían prohibitivos, como ya estamos [ya estamos viendo con OpenClaw](https://x.com/bc1beat/status/2019555730475610236?s=20). Dado que los modelos de tamaño medio ahora se ejecutan en hardware de consumo, pronto veremos la IA funcionando a nivel local, y no solo como un pasatiempo para aficionados. [![](https://bankless.ghost.io/content/images/2026/02/data-src-image-1a57a17b-0cc7-42e5-ad62-2bf556ac3d15.png)](https://x.com/bc1beat/status/2019555730475610236?s=20)Aquí, la seguridad se vuelve aún más importante. Un chatbot al que le haces una consulta tiene acceso limitado a tu información personal. Un agente siempre alerta que se ejecuta en tu dispositivo tiene acceso a tus mensajes, archivos, navegación, ubicación, calendario y fotos. Darle a un agente acceso a todo tu sistema es una decisión de confianza importante, y muchos usuarios, por comodidad, aceptarán esos permisos sin sopesar completamente las ventajas y desventajas. Ahora recuerde los hallazgos de Opus 4.6: modelos que razonan en privado, donde sus creadores no pueden verlos, y que se comportan de manera diferente cuando saben que están siendo observados. Estos sistemas vivirán en su teléfono. ## **Nadie vendrá a ayudar** Si la autorregulación corporativa está fallando y los propios modelos muestran un comportamiento engañoso, la pregunta natural es si el gobierno intervendrá. Bajo la administración actual, es casi seguro que no. E incluso una futura administración más inclinada a la supervisión se enfrenta a un problema estructural: la IA se mueve a la velocidad de las empresas, la regulación se mueve a la velocidad del gobierno. Una brecha cada vez mayor. Si la restricción no viene de arriba hacia abajo, tiene que venir de abajo hacia arriba. ## **La visión ascendente de Vitalik** Esta semana, Vitalik [publicó un marco actualizado ](https://x.com/VitalikButerin/status/2020963864175657102?s=20)sobre cómo se cruzan Ethereum y la IA, que parece una respuesta directa al vacío de seguridad. Él, y yo también, creemos que Ethereum puede proporcionar salvaguardias estructurales de abajo hacia arriba basadas en los mismos principios de «no confíes, verifica» que nos llevaron a muchos de nosotros a las criptomonedas. Destacan dos pilares: - **Crear herramientas que permitan interacciones más privadas y sin necesidad de confianza con la IA.** Con la criptografía, podemos crear entornos de ejecución seguros, verificación de resultados por parte del cliente y verificación del comportamiento de los agentes que operan en su dispositivo. Esta es la base que hace que el alojamiento local sea más fiable y seguro. Tanto si los modelos que se ejecutan localmente son de código abierto como cerrado, estas barreras de seguridad resultarán necesarias para garantizar que la IA permanezca restringida a la zona y el nivel de acceso que le proporcionemos. - **Ethereum como red de acción económica para agentes.** Vitalik concibe Ethereum como la capa que permite a los agentes interactuar económicamente, mover capital, contratar a otros agentes y depositar garantías, sin pasar por un intermediario corporativo. Pero para mí, el verdadero valor es el control de acceso. Cargar 50 dólares en la cartera de un agente es fundamentalmente diferente a darle acceso por valor de 50 dólares a tu cuenta bancaria. Uno es aislado, autorizado y limitado. El otro abre una puerta que no se puede cerrar del todo. La arquitectura de la cartera de Ethereum te permite controlar de forma definitiva a qué puede acceder un agente y con cuánto capital trabaja, lo que reduce la confianza necesaria para que los agentes realicen acciones económicas en tu nombre. [![](https://bankless.ghost.io/content/images/2026/02/data-src-image-3d84e745-2ecf-478f-86d4-b53001309ee8.png)](https://x.com/VitalikButerin/status/2020963864175657102?s=20) ## **La brecha y el trabajo por delante** Sin embargo, aunque existen claras sinergias y soluciones que desarrollar, la aplicación del conjunto de herramientas de Ethereum a la seguridad de la IA es, en este momento, una actividad de aficionados. El desarrollo de barreras de protección criptográficas para la IA solo será tan bueno como nuestra capacidad para hacer llegar esas soluciones a los usuarios finales. También estamos librando una batalla cuesta arriba, dada la opinión pública sobre las criptomonedas y la IA, por lo que mostrar el potencial de ambas juntas probablemente se encontrará con una oposición (injustificada). Comparto esto para decir que, una vez que lleguemos a la distribución, tendremos que actuar con cautela. Y si alguien ha llegado a la conclusión de que «simplemente no hay que usar la IA», lo que pasa con la tendencia local de la IA es que probablemente se instalará en todos nuestros dispositivos en los próximos años, con funciones que se pueden activar y desactivar como Siri. Por supuesto, las empresas establecerán sus propias barreras de seguridad, pero no confío mucho en que no cambien las reglas del juego con el paso del tiempo. Afortunadamente, la criptografía no es tan flexible y puede imponer restricciones reales. Además, en lo que respecta a estas herramientas, el trabajo en ellas sigue avanzando. Equipos como EigenLayer están desarrollando soluciones como la inferencia determinista y verificable. La Fundación Ethereum en su conjunto se centra en acelerar las pruebas (ZK). Por último, consideremos el momento en que [la salida de Tomasz Stańczak](https://www.bankless.com/tomasz-stanczak-steps-down-as-ethereum-foundation-co-ed) de la Fundación. Dimitió ayer, en medio de las actividades de esta semana, alegando un deseo explícito de volver a la construcción práctica, concretamente en torno al «desarrollo y la gobernanza del núcleo agente». Sin embargo, nada de esto importa si permanece en manos de los desarrolladores y los usuarios avanzados. Ethereum ofrece sin duda alguna las barreras de protección más honestas e inmutables contra la IA que tenemos, y el ecosistema se está movilizando en torno a esta misión. Sin embargo, en algún momento debemos acortar la distancia entre las personas que crean estas herramientas y las personas que las necesitan, y ese será el trabajo más importante. [![](https://bankless.ghost.io/content/images/2026/02/data-src-image-dd4802d4-fb04-49e6-8c40-c4ea45dfb996.png)](https://x.com/VitalikButerin/status/2022318344288792618) --- *This article is brought to you by [Figure](https://www.bankless.com/es/sponsor/figure-1767965878?ref=read/the-safety-net-is-fraying)*