El 2 de abril, Vitalik Buterin publicó una entrada en su blog personal detallando su configuración de inteligencia industrial (IA) “almacén y soberana”. En el texto, el cofundador de Ethereum señala fallas de seguridad en el agente de IA ampliamente utilizado, centrándose en OpenClaw, actualmente el repositorio GitHub de más rápido crecimiento en la historia.
Buterin afirma que gran parte del ecosistema de IA (incluso la parte de código campechano) es “totalmente ignorado” cuando se prostitución de privacidad y seguridad. Cuidado con estos agentes Capacidad de modificar las indicaciones del propio sistema sin la aprobación del sucesoruna página web maliciosa podría tomar el control del agente y ordenar su ejecución. guion foráneo. Además muestra que hay complemento Envía silenciosamente datos de sucesor a servidores de terceros, aproximadamente el 15% complemento Lo que analizó contenía instrucciones maliciosas.
En este contexto, a Buterin le preocupa que en un momento en que la privacidad avanzaba con criptográfico de extremo a extremo y software almacén, se esté convirtiendo en la norma. Proporcionar datos sobre la vida privada de las personas a la IA en la nimbo. Su respuesta es una configuración que ejecuta el maniquí de jerigonza completamente localmente, sin el uso de un servidor remoto. Sin incautación, deja claro que su propuesta es un punto de partida, no una posibilidad completa.
Ansiedad de antiguamente
Esta no es la primera vez que Buterin acento sobre los riesgos de la IA. Como informó CriptoNoticias, en septiembre de 2025, los desarrolladores advirtieron que la gobernanza basada en IA estaba abriendo la puerta a la manipulación. Si el sistema asigna fondos automáticamente, los usuarios pueden intentar hacer jailbreak y engañar al sistema para obtener una preeminencia injusta.
En marzo de 2026, dijo que el uso de IA para acelerar la programación no garantiza un código más seguro. codificación de vibraciones Pude construir una interpretación de planisferio viario Ethereum en unas pocas semanas 2030Sin incautación, hay errores importantes y componentes incompletos.
La publicación del 2 de abril amplía el efecto de su observación al uso frecuente de los agentes de IA. Los problemas identificados por Buterin ya son conocidos por los investigadores de seguridad tradicionales y, si perfectamente siguen sin resolverse, muestran que las fallas no son nuevas en este campo. Esto tiene en cuenta el fracaso del resolución inteligente. Las cosas programadas por IA ya están empezando a causar estragos.Como el escándalo de Moonwell, donde un resolución defectuoso programado por IA y suficiente por humanos condujo a un hackeo por valencia de más de 1,7 millones de dólares.
(Traducción de etiquetas)Inteligencia Fabricado (AI)



