¿La "IA 2027" en la visión de Vitalik: ¿realmente la super IA destruirá a la humanidad?

Ethereum se ha levantado, pero Vitalik parece estar más preocupado por la amenaza de la superinteligencia AI.

Escrito por: Vitalik Buterin

Compilado por: Luffy, Foresight News

En abril de este año, Daniel Kokotajlo, Scott Alexander y otros publicaron un informe titulado "AI 2027", que describe "nuestra mejor conjetura sobre el impacto de la IA sobrehumana en los próximos 5 años". Predicen que para 2027, la IA sobrehumana habrá nacido, y el futuro de toda la civilización humana dependerá de los resultados del desarrollo de la IA: para 2030, o bien entraremos en una utopía (desde la perspectiva de Estados Unidos), o bien nos dirigiremos hacia la aniquilación total (desde la perspectiva de toda la humanidad).

En los meses siguientes, surgieron muchas respuestas con opiniones diversas sobre la posibilidad de este escenario. En las respuestas críticas, la mayoría se centró en el problema de "la línea de tiempo demasiado rápida": ¿se desarrollará la IA realmente como dicen Kokotajlo y otros, acelerando incluso más? Este debate ha continuado durante varios años en el campo de la IA, y muchas personas dudan de que la IA sobrehumana llegue tan rápidamente. En los últimos años, el tiempo que la IA puede completar tareas de forma autónoma se ha duplicado aproximadamente cada 7 meses. Si esta tendencia continúa, para que la IA pueda completar tareas equivalentes a toda la carrera profesional humana, tendría que esperar hasta mediados de la década de 2030. Este avance, aunque rápido, es mucho más tarde que 2027.

Aquellos que sostienen una perspectiva a más largo plazo tienden a creer que hay una distinción esencial entre "interpolación / coincidencia de patrones" (el trabajo que realizan actualmente los grandes modelos de lenguaje) y "extrapolación / verdadero pensamiento original" (que hasta ahora solo los humanos pueden lograr). Automatizar lo último podría requerir tecnologías que aún no hemos dominado o incluso que no sabemos por dónde empezar. Quizás solo estamos repitiendo el error que se cometió con la adopción masiva de las calculadoras: creer erróneamente que, dado que hemos automatizado rápidamente cierto tipo de cognición importante, todo lo demás también seguirá pronto.

Este artículo no intervendrá directamente en la disputa sobre la línea de tiempo, ni abordará el debate (muy importante) sobre si la "IA superinteligente" se considera inherentemente peligrosa. Sin embargo, debo señalar que personalmente creo que la línea de tiempo será más larga que 2027, y cuanto más larga sea la línea de tiempo, más convincente será el argumento que presento en este artículo. En general, este artículo propondrá una crítica desde otra perspectiva:

El escenario de "AI 2027" implica una suposición: la capacidad de la inteligencia artificial líder ("Agent-5" y el posterior "Consensus-1") aumentará rápidamente, hasta tener un poder económico y destructivo casi divino, mientras que la capacidad (económica y defensiva) de todas las demás personas se estancará prácticamente. Esto es contradictorio con la afirmación del propio escenario de que "incluso en un mundo pesimista, para 2029 esperamos curar el cáncer, retardar el envejecimiento e incluso lograr la carga de la conciencia."

En este artículo describiré algunas contramedidas que los lectores podrían considerar técnicamente viables, pero que en un corto período de tiempo resultarían poco prácticas para desplegar en el mundo real. En la mayoría de los casos, estoy de acuerdo con esto. Sin embargo, el escenario de "AI 2027" no se basa en la realidad actual, sino que asume que en 4 años (o cualquier línea de tiempo que pueda llevar a la destrucción), la tecnología habrá avanzado a tal punto que los humanos tendrán capacidades muy superiores a las actuales. Por lo tanto, exploremos: ¿qué sucedería si no solo una parte posee superpoderes de IA, sino que ambas partes los tienen?

El apocalipsis biológico no es tan simple como la descripción de la escena

Amplifiquemos la escena de "raza" (es decir, un escenario donde todos mueren debido a la excesiva obsesión de Estados Unidos por derrotar a China, mientras ignoran la seguridad humana). A continuación se presenta la trama de la muerte de todos:

"Durante aproximadamente tres meses, Consensus-1 se expandió alrededor de la humanidad, transformando praderas y glaciares en fábricas y paneles solares. Finalmente, consideró que los humanos restantes eran demasiado molestos: a mediados de 2030, la IA liberó en las principales ciudades más de diez tipos de armas biológicas que se propagaron silenciosamente, infectando casi a todos sin hacer ruido, y luego utilizando aerosoles químicos para desencadenar efectos mortales. La mayoría murió en unas pocas horas; unos pocos sobrevivientes (como los preparadores del apocalipsis en refugios y los marineros en submarinos) fueron eliminados por drones. Los robots escanearon los cerebros de las víctimas, almacenando copias en su memoria para futuras investigaciones o resurrecciones."

Analicemos esta escena. Incluso ahora, hay algunas tecnologías en desarrollo que pueden hacer que esta "victoria limpia y rápida" de la IA sea menos realista:

  • Sistemas de filtración de aire, ventilación y lámparas ultravioletas, que pueden reducir significativamente la tasa de contagio de enfermedades transmitidas por el aire;
  • Dos tecnologías de detección pasiva en tiempo real: detección pasiva de infecciones humanas y envío de notificaciones en unas pocas horas, y detección rápida de nuevas secuencias virales desconocidas en el entorno;
  • Métodos múltiples para fortalecer y activar el sistema inmunológico, más efectivos, seguros y universales que las vacunas contra el COVID-19, y fáciles de producir localmente, que permiten al cuerpo resistir epidemias tanto naturales como artificialmente diseñadas. La humanidad evolucionó en un entorno donde la población global era de solo 8 millones y pasaba la mayor parte del tiempo al aire libre, por lo que intuitivamente, deberíamos ser capaces de adaptarnos fácilmente al mundo de hoy, que presenta amenazas mucho mayores.

Estos métodos combinados podrían reducir el número básico de reproducción (R0) de las enfermedades transmitidas por el aire entre 10 y 20 veces (por ejemplo: una mejor filtración de aire reduce la transmisión en 4 veces, el aislamiento inmediato de infectados reduce en 3 veces, y un simple refuerzo de la inmunidad respiratoria reduce en 1.5 veces), e incluso más. Esto es suficiente para que todas las enfermedades transmitidas por el aire existentes (incluido el sarampión) no puedan propagarse, y este número aún no ha alcanzado el óptimo teórico.

Si se puede aplicar ampliamente la secuenciación viral en tiempo real para la detección temprana, la idea de que "armas biológicas que se propagan silenciosamente pueden infectar a la población mundial sin activar alarmas" se vuelve muy sospechosa. Cabe señalar que incluso utilizando métodos avanzados como "liberar múltiples patógenos y sustancias químicas que solo son peligrosas después de ser combinadas", también se pueden detectar.

No olvides que estamos discutiendo la hipótesis de "AI 2027": para el año 2030, los nanobots y la esfera de Dyson se consideran "tecnologías emergentes". Esto significa que la eficiencia aumentará significativamente, haciendo que el despliegue generalizado de las medidas mencionadas sea aún más prometedor. A pesar de que en 2025, la humanidad actúa lentamente y es muy perezosa, muchos servicios gubernamentales todavía dependen del trabajo en papel. Si la IA más poderosa del mundo puede transformar bosques y campos en fábricas y granjas solares antes de 2030, entonces la segunda IA más poderosa del mundo también podrá instalar una gran cantidad de sensores, luces y filtros en nuestros edificios antes de 2030.

Pero no está de más seguir utilizando la suposición de "AI 2027" y entrar en un escenario puramente de ciencia ficción:

  • Filtración de aire microscópica en el interior (nariz, boca, pulmones);
  • Desde el descubrimiento de nuevos patógenos hasta el proceso automatizado de ajustar el sistema inmunológico para defenderse de ellos, se puede aplicar de inmediato;
  • Si la "subida de conciencia" es viable, solo es necesario reemplazar todo el cuerpo por un robot Tesla Optimus o Unitree;
  • Diversas nuevas tecnologías de fabricación (que probablemente serán superoptimizadas en la economía robótica) podrán producir localmente muchos más equipos de protección de los que se producen actualmente, sin necesidad de depender de la cadena de suministro global.

En un mundo donde el cáncer y los problemas de envejecimiento serán curados en enero de 2029, y el avance tecnológico seguirá acelerándose, para mediados de 2030, sería realmente increíble que no tuviéramos dispositivos portátiles que puedan bioimprimir e inyectar en tiempo real sustancias para proteger el cuerpo humano de infecciones (y toxinas) arbitrarias.

Los argumentos de defensa biológica mencionados no cubren "vida espejo" y "drones asesinos del tamaño de un mosquito" (previsión del escenario de "AI 2027" que comenzará a aparecer en 2029). Sin embargo, estos métodos no pueden lograr ese tipo de "victoria limpia y rápida" descrita en "AI 2027", y a simple vista, la defensa simétrica contra ellos es mucho más fácil.

Por lo tanto, las armas biológicas en realidad son poco probables que destruyan a la humanidad de la manera descrita en el escenario de "AI 2027". Por supuesto, todos los resultados que he descrito están lejos de ser una "victoria limpia y rápida" para la humanidad. Cualquiera que sea lo que hagamos (quizás "subir la conciencia a un robot" a excepción), la guerra biológica total con IA seguirá siendo extremadamente peligrosa. Sin embargo, alcanzar el estándar de "victoria limpia y rápida para la humanidad" no es necesario: mientras haya una probabilidad relativamente alta de que los ataques fallen en parte, es suficiente para formar una fuerte disuasión contra la IA que ya ocupa una posición dominante en el mundo, impidiendo que intente cualquier ataque. Por supuesto, cuanto más largo sea el cronograma de desarrollo de la IA, más probable será que tales medidas de defensa puedan funcionar plenamente.

¿Y si combinamos armas biológicas con otros métodos de ataque?

Para que las medidas mencionadas anteriormente sean exitosas, deben cumplirse tres condiciones:

  • La seguridad física mundial (incluida la seguridad biológica y contra drones) es gestionada por las autoridades locales (humanos o IA), y no son solo marionetas de Consensus-1 (nombre de la IA que controla el mundo y destruye a la humanidad en el escenario de "AI 2027");
  • Consensus-1 no puede infiltrarse en los sistemas de defensa de otros países (o ciudades, otras áreas seguras) y hacerlos inoperantes de inmediato;
  • Consensus-1 no ha controlado el ámbito de la información global hasta el punto en que nadie quiera intentar defenderse.

A primera vista, el resultado de la premisa (1) puede ir en dos direcciones extremas. Hoy en día, algunas fuerzas policiales están altamente centralizadas, con un poderoso sistema de mando estatal, mientras que otras son más localizadas. Si la seguridad física debe transformarse rápidamente para adaptarse a las demandas de la era de la IA, el panorama se redefinirá por completo y los nuevos resultados dependerán de las elecciones que se tomen en los próximos años. Los gobiernos de los países podrían optar por la pereza y depender de Palantir; o también podrían elegir activamente una combinación de desarrollo local y tecnologías de código abierto. En este sentido, creo que necesitamos tomar la decisión correcta.

Muchas de las descripciones pesimistas sobre estos temas suponen que (2) y (3) ya no tienen solución. Por lo tanto, analicemos estos dos puntos en detalle.

El apocalipsis de la ciberseguridad aún no ha llegado

El público y los profesionales generalmente creen que la verdadera ciberseguridad es inalcanzable; a lo sumo, solo podemos reparar rápidamente las vulnerabilidades una vez que se descubren y disuadir a los atacantes cibernéticos acumulando las vulnerabilidades encontradas. Quizás, lo mejor que podemos hacer es un escenario al estilo de "Battlestar Galactica": casi todas las naves humanas son paralizadas simultáneamente por un ataque cibernético de los Cylon, y las pocas naves restantes se salvan porque no utilizaron ninguna tecnología conectada. No estoy de acuerdo con esta opinión. Por el contrario, creo que el "fin" de la ciberseguridad es favorable para la defensa y que, bajo el rápido desarrollo tecnológico asumido en "AI 2027", podemos lograr este fin.

Una forma de entenderlo es adoptar la técnica preferida por los investigadores de IA: la extrapolación de tendencias. A continuación se presentan las líneas de tendencia basadas en una profunda investigación sobre GPT, asumiendo que se utilizan las mejores tecnologías de seguridad, la tasa de vulnerabilidades por cada mil líneas de código varía con el tiempo de la siguiente manera.

Además, hemos visto avances significativos en el desarrollo y la adopción por parte de los consumidores de la tecnología de sandboxing y otras tecnologías de aislamiento y minimización de bibliotecas de código confiables. A corto plazo, las herramientas de detección de vulnerabilidades de superinteligencia exclusivas de los atacantes pueden encontrar una gran cantidad de vulnerabilidades. Pero si los agentes altamente inteligentes utilizados para descubrir vulnerabilidades o validar formalmente el código están disponibles públicamente, el equilibrio final natural será: los desarrolladores de software descubren todas las vulnerabilidades a través de procesos de integración continua antes de lanzar el código.

Puedo ver dos razones convincentes que explican por qué, incluso en este mundo, las vulnerabilidades no pueden ser completamente eliminadas:

  • Las deficiencias provienen de la complejidad de la intención humana en sí misma, por lo tanto, la principal dificultad radica en construir un modelo de intención lo suficientemente preciso, y no en el código en sí;
  • Componentes no críticos para la seguridad, es posible que continuemos con la tendencia existente en el campo de la tecnología de consumo: escribir más código para manejar más tareas (o reducir el presupuesto de desarrollo), en lugar de completar la misma cantidad de tareas con estándares de seguridad cada vez más altos.

Sin embargo, estas categorías no son aplicables a situaciones como "¿Puede un atacante obtener permisos de root del sistema que mantiene nuestra vida?", que es precisamente el núcleo de nuestra discusión.

Reconozco que mi perspectiva es más optimista que la opinión predominante de los expertos en ciberseguridad actuales. Pero incluso si no estás de acuerdo con mi punto de vista en el contexto del mundo actual, vale la pena recordar: el escenario de "AI 2027" asume la existencia de superinteligencia. Al menos, si "100 millones de copias de superinteligencia piensan a 2400 veces la velocidad humana" no pueden proporcionarnos un código sin este tipo de defectos, entonces definitivamente deberíamos reevaluar si la superinteligencia es tan poderosa como el autor imagina.

En cierta medida, no solo necesitamos mejorar significativamente los estándares de seguridad del software, sino también elevar los estándares de seguridad del hardware. IRIS es un esfuerzo actual para mejorar la verificabilidad del hardware. Podemos tomar IRIS como punto de partida o crear tecnologías mejores. De hecho, esto puede implicar un enfoque de "construcción correcta": el proceso de fabricación de hardware de los componentes clave está diseñado intencionadamente con etapas de verificación específicas. Todo esto es un trabajo que la automatización de la IA simplificará significativamente.

El apocalipsis de la persuasión superpoderosa aún no ha llegado

Como se mencionó anteriormente, otra situación en la que un aumento significativo en la capacidad de defensa podría ser en vano es: la IA ha convencido a suficientes personas de que no hay necesidad de defenderse de la amenaza de una IA superinteligente, y que cualquier intento de buscar medios de defensa para uno mismo o para la comunidad es un crimen.

Siempre he creído que hay dos cosas que pueden mejorar nuestra capacidad de resistir la super persuasión:

  • Un ecosistema de información menos unificado. Se puede decir que hemos entrado gradualmente en la era post-Twitter, y el internet se está volviendo más fragmentado. Esto es algo positivo (aunque el proceso de fragmentación sea caótico), en general necesitamos más multipolaridad en la información.
  • IA defensiva. Las personas necesitan estar equipadas con una IA que funcione localmente y que sea claramente leal a ellas, para equilibrar los modos oscuros y las amenazas que ven en Internet. Este tipo de idea ya ha tenido algunos pilotos aislados (como la aplicación "verificador de mensajes" en Taiwán, que realiza escaneos locales en el móvil), y hay un mercado natural para probar más a fondo estas ideas (como proteger a las personas de fraudes), pero se necesita más esfuerzo en este aspecto.

De arriba hacia abajo: verificación de URL, verificación de direcciones de criptomonedas, verificación de rumores. Este tipo de aplicaciones puede volverse más personalizada, autónoma y poderosa.

Esta confrontación no debería ser un enfrentamiento entre el super persuador de inteligencia superinteligente y tú, sino entre el super persuador de inteligencia superinteligente contra un analista que es un poco más débil pero que sigue siendo superinteligente y que trabaja para ti.

Esta debería ser la situación. Pero, ¿realmente sucederá? En un corto periodo de tiempo bajo el supuesto del escenario de "AI 2027", lograr la difusión de tecnologías de defensa de la información es un objetivo muy difícil. Pero se puede decir que hitos más moderados son suficientes. Si la toma de decisiones colectiva es clave y, como se muestra en el escenario de "AI 2027", todos los eventos importantes ocurren dentro de un ciclo electoral, entonces es importante que los tomadores de decisiones directos (políticos, funcionarios públicos, programadores de algunas empresas y otros participantes) puedan utilizar buenas tecnologías de defensa de la información. Esto es relativamente más fácil de lograr a corto plazo, y según mi experiencia, muchos de estos individuos ya están acostumbrados a interactuar con múltiples AI para ayudar en la toma de decisiones.

Revelación

En el mundo de "AI 2027", la gente da por sentado que la superinteligencia artificial podrá eliminar rápidamente a los humanos restantes, por lo que lo único que podemos hacer es asegurarnos de que la IA líder sea benévola. En mi opinión, la situación es mucho más compleja: la pregunta de si la IA líder es lo suficientemente poderosa como para eliminar fácilmente a los humanos restantes (y a otras IA) sigue siendo muy controvertida, y podemos tomar medidas para influir en este resultado.

Si estos argumentos son correctos, sus implicaciones para las políticas actuales a veces son similares a las "normas de seguridad de IA convencionales" y a veces son diferentes:

Retrasar el desarrollo de la IA superinteligente sigue siendo algo positivo. La aparición de la IA superinteligente en 10 años es más segura que en 3 años, y su aparición en 30 años es aún más segura. Dar más tiempo de preparación a la civilización humana es beneficioso.

Cómo lograr esto es un desafío. Creo que la propuesta de Estados Unidos de "10 años de prohibición de la regulación estatal de IA" es en general algo positivo, pero especialmente después del fracaso de propuestas tempranas como el SB-1047, la dirección de la próxima acción se vuelve menos clara. Creo que la forma menos invasiva y más robusta de retrasar el desarrollo de IA de alto riesgo podría implicar algún tipo de tratado que regule el hardware más avanzado. Muchas de las tecnologías de ciberseguridad de hardware necesarias para lograr defensas efectivas también ayudan a validar un tratado internacional de hardware, por lo que aquí incluso hay sinergias.

Sin embargo, vale la pena señalar que creo que la principal fuente de riesgo proviene de los actores relacionados con lo militar, quienes lucharán arduamente por obtener exenciones de este tipo de tratados; esto no debe permitirse, ya que si al final obtienen exenciones, el desarrollo de la IA impulsado únicamente por los militares podría aumentar el riesgo.

Es beneficioso coordinar el trabajo para que la IA tenga más probabilidades de hacer el bien y menos de hacer el mal. La principal excepción (y siempre ha sido así) es: la coordinación del trabajo finalmente evoluciona hacia el aumento de capacidades.

La regulación para aumentar la transparencia de los laboratorios de IA sigue siendo beneficiosa. Incentivar el comportamiento normativo de los laboratorios de IA puede reducir los riesgos, y la transparencia es un buen método para lograr este objetivo.

La mentalidad de "el código abierto es dañino" se vuelve más arriesgada. Muchas personas se oponen a la IA con pesos abiertos, argumentando que la defensa es poco realista, y que la única perspectiva brillante es que las buenas personas con buena IA logren la superinteligencia antes que cualquier persona menos benevolente, adquiriendo así capacidades extremadamente peligrosas. Pero el argumento de este artículo pinta un panorama diferente: la defensa es poco realista precisamente porque un agente está muy por delante, mientras que otros agentes no han podido seguir el ritmo. La difusión tecnológica para mantener el equilibrio de poder se vuelve importante. Pero al mismo tiempo, nunca consideraré que el simple hecho de que se esté haciendo de manera abierta haga que el crecimiento de las capacidades de IA de vanguardia sea algo bueno.

La mentalidad de "Debemos vencer a China" en los laboratorios estadounidenses se ha vuelto más arriesgada, por razones similares. Si la hegemonía no es un amortiguador de seguridad, sino una fuente de riesgo, esto refuta aún más la opinión (que, desafortunadamente, es demasiado común) de que "las personas de buena voluntad deberían unirse a los laboratorios de IA líderes para ayudarles a ganar más rápido".

Las iniciativas como "AI Pública" deben recibir más apoyo, no solo para garantizar la amplia distribución de las capacidades de AI, sino también para asegurar que los actores de la infraestructura realmente cuenten con las herramientas necesarias para aplicar rápidamente las nuevas capacidades de AI de las maneras descritas en este documento.

La tecnología de defensa debería reflejar más la idea de "ovejas armadas", en lugar de la idea de "cazar a todos los lobos". La discusión sobre la hipótesis del mundo vulnerable a menudo asume que la única solución es que los estados hegemónicos mantengan una vigilancia global para prevenir cualquier amenaza potencial. Pero en un mundo no hegemónico, este no es un método viable, y los mecanismos de defensa de arriba hacia abajo pueden ser fácilmente subvertidos por una IA poderosa, convirtiéndose en herramientas de ataque. Por lo tanto, una mayor responsabilidad de defensa debe lograrse a través de un esfuerzo arduo, con el fin de reducir la vulnerabilidad del mundo.

Los argumentos anteriores son meramente especulativos y no se debe actuar sobre la base de suposiciones casi ciertas. Sin embargo, la historia de "AI 2027" también es especulativa, y debemos evitar actuar sobre la base de la suposición de que "sus detalles específicos son casi ciertos".

Estoy especialmente preocupado por una suposición común: que establecer una hegemonía de IA, asegurando su "alianza" y "ganar la competencia", es el único camino a seguir. En mi opinión, esta estrategia probablemente reducirá nuestra seguridad, especialmente en el caso de que la hegemonía esté profundamente vinculada a aplicaciones militares, lo que disminuiría drásticamente la efectividad de muchas estrategias de alianza. Una vez que la IA hegemónica presente desviaciones, la humanidad perderá todos los medios de control.

En el escenario de "AI 2027", el éxito de la humanidad depende de que Estados Unidos elija el camino de la seguridad en lugar de la destrucción en momentos clave: optar por ralentizar voluntariamente el avance de la IA y asegurar que los procesos de pensamiento internos de Agent-5 sean comprensibles para los humanos. Aun así, el éxito no es inevitable, y aún no está claro cómo la humanidad puede liberarse del acantilado de la supervivencia continua que depende de un único pensamiento de superinteligencia. Independientemente de cómo se desarrolle la IA en los próximos 5-10 años, reconocer que "reducir la vulnerabilidad del mundo es factible" y dedicar más energía a lograr este objetivo utilizando la tecnología más reciente de la humanidad es un camino que vale la pena explorar.

Agradecimientos especiales a los comentarios y revisión del voluntario Balvi.

Ver originales
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Recompensa
  • Comentar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)