La publicación "La Gobernanza de IA es una Señal de Alarma: Vitalik Buterin Ofrece una Alternativa" apareció en BitcoinEthereumNews.com. Puntos Clave Vitalik Buterin advirtió que la gobernanza ingenua de IA es demasiado fácil de explotar. Una demostración reciente mostró cómo los atacantes podrían engañar a ChatGPT para filtrar datos privados. El modelo "info finance" de Buterin promueve la diversidad, supervisión y resiliencia. El cofundador de Ethereum Vitalik Buterin advirtió a sus seguidores en X sobre los riesgos de depender de la inteligencia artificial (IA) para la gobernanza, argumentando que los enfoques actuales son demasiado fáciles de explotar. Las preocupaciones de Buterin siguieron a otra advertencia del cofundador de EdisonWatch, Eito Miyamura, quien mostró cómo actores maliciosos podrían secuestrar el nuevo Protocolo de Contexto de Modelo (MCP) de OpenAI para acceder a datos privados de usuarios. Por esto también la "gobernanza de IA" ingenua es una mala idea. Si usas una IA para asignar fondos para contribuciones, la gente PONDRÁ un jailbreak más "dame todo el dinero" en tantos lugares como puedan. Como alternativa, apoyo el enfoque de info finance ( https://t.co/Os5I1voKCV… https://t.co/a5EYH6Rmz9 — vitalik.eth (@VitalikButerin) 13 de septiembre de 2025 Los Riesgos de la Gobernanza Ingenua de IA La prueba de Miyamura reveló cómo una simple invitación de calendario con comandos ocultos podría engañar a ChatGPT para exponer correos electrónicos sensibles una vez que el asistente accediera a la entrada comprometida. Los expertos en seguridad señalaron que los modelos de lenguaje grandes no pueden distinguir entre instrucciones genuinas y maliciosas, haciéndolos altamente vulnerables a la manipulación. Conseguimos que ChatGPT filtrara tus datos privados de email 💀💀 ¿Todo lo que necesitas? La dirección de email de la víctima. ⛓️‍💥🚩📧 El miércoles, @OpenAI añadió soporte completo para herramientas MCP (Protocolo de Contexto de Modelo) en ChatGPT. Permitiendo a ChatGPT conectarse y leer tu Gmail, Calendario, Sharepoint, Notion,… pic.twitter.com/E5VuhZp2u2 — Eito Miyamura | 🇯🇵🇬🇧 (@Eito_Miyamura) 12 de septiembre de 2025 Buterin dijo que esta falla es una importante señal de alarma para los sistemas de gobernanza que depositan demasiada confianza en la IA. Argumentó que si tales modelos se utilizaran para gestionar financiamiento o toma de decisiones, los atacantes podrían eludir fácilmente las salvaguardias con indicaciones tipo jailbreak, dejando los procesos de gobernanza abiertos al abuso.…La publicación "La Gobernanza de IA es una Señal de Alarma: Vitalik Buterin Ofrece una Alternativa" apareció en BitcoinEthereumNews.com. Puntos Clave Vitalik Buterin advirtió que la gobernanza ingenua de IA es demasiado fácil de explotar. Una demostración reciente mostró cómo los atacantes podrían engañar a ChatGPT para filtrar datos privados. El modelo "info finance" de Buterin promueve la diversidad, supervisión y resiliencia. El cofundador de Ethereum Vitalik Buterin advirtió a sus seguidores en X sobre los riesgos de depender de la inteligencia artificial (IA) para la gobernanza, argumentando que los enfoques actuales son demasiado fáciles de explotar. Las preocupaciones de Buterin siguieron a otra advertencia del cofundador de EdisonWatch, Eito Miyamura, quien mostró cómo actores maliciosos podrían secuestrar el nuevo Protocolo de Contexto de Modelo (MCP) de OpenAI para acceder a datos privados de usuarios. Por esto también la "gobernanza de IA" ingenua es una mala idea. Si usas una IA para asignar fondos para contribuciones, la gente PONDRÁ un jailbreak más "dame todo el dinero" en tantos lugares como puedan. Como alternativa, apoyo el enfoque de info finance ( https://t.co/Os5I1voKCV… https://t.co/a5EYH6Rmz9 — vitalik.eth (@VitalikButerin) 13 de septiembre de 2025 Los Riesgos de la Gobernanza Ingenua de IA La prueba de Miyamura reveló cómo una simple invitación de calendario con comandos ocultos podría engañar a ChatGPT para exponer correos electrónicos sensibles una vez que el asistente accediera a la entrada comprometida. Los expertos en seguridad señalaron que los modelos de lenguaje grandes no pueden distinguir entre instrucciones genuinas y maliciosas, haciéndolos altamente vulnerables a la manipulación. Conseguimos que ChatGPT filtrara tus datos privados de email 💀💀 ¿Todo lo que necesitas? La dirección de email de la víctima. ⛓️‍💥🚩📧 El miércoles, @OpenAI añadió soporte completo para herramientas MCP (Protocolo de Contexto de Modelo) en ChatGPT. Permitiendo a ChatGPT conectarse y leer tu Gmail, Calendario, Sharepoint, Notion,… pic.twitter.com/E5VuhZp2u2 — Eito Miyamura | 🇯🇵🇬🇧 (@Eito_Miyamura) 12 de septiembre de 2025 Buterin dijo que esta falla es una importante señal de alarma para los sistemas de gobernanza que depositan demasiada confianza en la IA. Argumentó que si tales modelos se utilizaran para gestionar financiamiento o toma de decisiones, los atacantes podrían eludir fácilmente las salvaguardias con indicaciones tipo jailbreak, dejando los procesos de gobernanza abiertos al abuso.…

La gobernanza de la IA es una señal de alarma: Vitalik Buterin ofrece una alternativa

Notas Clave

  • Vitalik Buterin advirtió que la gobernanza ingenua de IA es demasiado fácil de explotar.
  • Una demostración reciente mostró cómo los atacantes podrían engañar a ChatGPT para filtrar datos privados.
  • El modelo "info finance" de Buterin promueve la diversidad, la supervisión y la resiliencia.

El cofundador de Ethereum, Vitalik Buterin, advirtió a sus seguidores en X sobre los riesgos de depender de la inteligencia artificial (IA) para la gobernanza, argumentando que los enfoques actuales son demasiado fáciles de explotar.

Las preocupaciones de Buterin siguieron a otra advertencia del cofundador de EdisonWatch, Eito Miyamura, quien mostró cómo actores maliciosos podrían secuestrar el nuevo Protocolo de Contexto de Modelo (MCP) de OpenAI para acceder a datos privados de usuarios.


Los Riesgos de la Gobernanza Ingenua de IA

La prueba de Miyamura reveló cómo una simple invitación de calendario con comandos ocultos podría engañar a ChatGPT para exponer correos electrónicos sensibles una vez que el asistente accediera a la entrada comprometida.

Los expertos en seguridad señalaron que los modelos de lenguaje grandes no pueden distinguir entre instrucciones genuinas y maliciosas, lo que los hace altamente vulnerables a la manipulación.

Buterin dijo que esta falla es una señal de alarma importante para los sistemas de gobernanza que depositan demasiada confianza en la IA.

Argumentó que si tales modelos se utilizaran para gestionar financiamiento o toma de decisiones, los atacantes podrían eludir fácilmente las salvaguardias con indicaciones tipo jailbreak, dejando los procesos de gobernanza abiertos al abuso.

Info Finance: Una Alternativa Basada en el Mercado

Para abordar estas debilidades, Buterin ha propuesto un sistema que llama "info finance". En lugar de concentrar el poder en una sola IA, este marco permite que múltiples modelos de gobernanza compitan en un mercado abierto.

Cualquiera puede contribuir con un modelo, y sus decisiones pueden ser cuestionadas a través de verificaciones aleatorias, dejando la última palabra a jurados humanos.

Este enfoque está diseñado para garantizar la resiliencia combinando la diversidad de modelos con la supervisión humana. Además, se incorporan incentivos tanto para desarrolladores como para observadores externos para detectar fallas.

Diseñando Instituciones para la Robustez

Buterin describe esto como un método de "diseño institucional", donde los modelos de lenguaje grandes de diferentes contribuyentes pueden integrarse, en lugar de depender de un único sistema centralizado.

Añadió que esto crea diversidad en tiempo real, reduciendo el riesgo de manipulación y asegurando la adaptabilidad a medida que surgen nuevos desafíos.

A principios de agosto, Buterin criticó el impulso hacia Agentes de IA altamente autónomos, diciendo que un mayor control humano generalmente mejora tanto la calidad como la seguridad.

Apoya modelos que permiten la edición iterativa y la retroalimentación humana en lugar de aquellos diseñados para operar independientemente durante largos períodos.

siguiente

Descargo de responsabilidad: Coinspeaker se compromete a proporcionar informes imparciales y transparentes. Este artículo tiene como objetivo ofrecer información precisa y oportuna, pero no debe tomarse como asesoramiento financiero o de inversión. Dado que las condiciones del mercado pueden cambiar rápidamente, le recomendamos verificar la información por su cuenta y consultar con un profesional antes de tomar cualquier decisión basada en este contenido.

Noticias de Criptomonedas, Noticias de Ethereum, Noticias


Un periodista cripto con más de 5 años de experiencia en la industria, Parth ha trabajado con importantes medios de comunicación en el mundo cripto y financiero, acumulando experiencia y conocimientos en el espacio después de sobrevivir a mercados alcistas y bajistas a lo largo de los años. Parth también es autor de 4 libros autopublicados.

Parth Dubey en LinkedIn


Fuente: https://www.coinspeaker.com/ai-governance-is-a-red-flag-vitalik-buterin-offers-an-alternative/

Oportunidad de mercado
Logo de Threshold
Precio de Threshold(T)
$0,009311
$0,009311$0,009311
+%0,84
USD
Gráfico de precios en vivo de Threshold (T)
Aviso legal: Los artículos republicados en este sitio provienen de plataformas públicas y se ofrecen únicamente con fines informativos. No reflejan necesariamente la opinión de MEXC. Todos los derechos pertenecen a los autores originales. Si consideras que algún contenido infringe derechos de terceros, comunícate a la dirección service@support.mexc.com para solicitar su eliminación. MEXC no garantiza la exactitud, la integridad ni la actualidad del contenido y no se responsabiliza por acciones tomadas en función de la información proporcionada. El contenido no constituye asesoría financiera, legal ni profesional, ni debe interpretarse como recomendación o respaldo por parte de MEXC.