Respuesta a las críticas de la entrada "Skynet" 2ª Parte (la seria)
Bueno, ahora ya sí, voy con la entrada que debía haber escrito anteriormente respecto a lo de Skynet.
Para explicar el punto de vista de esas personas que anteriormente comentaba, es preciso que tengáis claros ciertos conceptos sobre las IAs para que podáis comprender lo que teme esta gente.
De entrada, el temor que tienen ya lo conocéis. Simplemente, es que una IA de gran potencial se escape del control humano y sus acciones tengan consecuencias altamente negativas y perjudiciales que pongan en serio peligro la continuación de la especie humana o su libertad tal y como hoy la conocemos.
¿Por qué motivo estas personas temen tal desenlace nefasto?
Pues es lo que me dispongo a relatar aquí y de esa forma dar voz pública a la exigencia de mostrar los motivos y el razonamiento que ellos esgrimen para articular una creencia muy extendida y a día de hoy, completamente imposible de comprobar.
Lo primero es que conozcáis las tres formas genéricas de IAs, una real y las otras dos teorizadas y ficticias de momento.
Estas tres entidades se engloban en tres categorías claramente diferenciadas. Os las mostraré por orden descendente, de menor a mayor potencial.
Estaríamos hablando, según sus capacidades, de:
1ª ANI: Inteligencia artificial estrecha o débil (Artificial Narrow Intelligence).
2ª AGI: Inteligencia Artificial General o fuerte (Artificial General Intelligence).
3ª ASI: Superinteligencia artificial (Artificial Superintelligence).
De estas tres IAs, tan solo la primera, ANI, es una realidad a día de hoy; las otras dos tan solo son conceptos teóricos, aunque ya se esté trabajando en la creación de la AGI (Inteligencia Artificial General o fuerte).
La ASI (Superinteligencia Artificial) se trata únicamente de un concepto teórico completamente especulativo y como tal, con diferentes teorías que sugieren sus posibles capacidades y repercusiones para el ser humano, pero, como ya he dicho, es algo meramente especulativo actualmente.
La inteligencia artificial estrecha o débil (ANI), dependiendo de su enfoque y capacidad, está representada por diferentes agentes de IA, pero nos centraremos en los más conocidos: ChatGPT, Microsoft Copilot, Google Gemini, Anthropic Claude, Meta AI.
ChatGPT, creado por OpenAI, al igual que Microsoft Copilot, se basa en la tecnología GPT (Transformador Generativo Preentrenado, Generative Pre-trained Transformer), actualmente el GPT-4 y el GPT-5.
Google Gemini desarrolla su propia tecnología y está basada en Google DeepMind (Google Mente Profunda); la más reciente es Gemini 3 Pro.
Anthropic Claude desarrolla su tecnología propia; actualmente, la versión más avanzada que tienen es la Claude 3.5 Sonnet.
Por último, tendríamos a Meta AI. Meta usa los modelos de código abierto Llama (actualmente Llama 3).
Aunque todas ellas son IAs conversacionales, esto no significa que no cumplan otras funciones. Las IAs tendrían, por una parte, el modelo y, por otra, las interfaces; de hecho, la función del chat es solo una de esas interfaces.
Por ejemplo, en ChatGPT, la interfaz que implementaría para conversar con los usuarios sería Chatbot.
Y aunque para el público en general la interfaz o función de chat es lo más conocido y es como imaginan a una IA, las IAs se implementan en muchos otros ámbitos, como por ejemplo integrarse dentro de programas para realizar funciones determinadas que ese mismo programa necesita para funcionar correctamente.
Haciendo una comparativa sencilla con un vehículo: OpenAI (en un vehículo sería la marca: BMW), GPT-5 (sería el modelo: el BMW X530d) y la interfaz chatbot (sería una de las funciones que el vehículo puede realizar, como por ejemplo la función de manos libres, conectando al vehículo mediante Bluetooth un teléfono móvil).
Estas serían, grosso modo, las IAs de las que actualmente disponemos.
En un futuro teóricamente cercano, es decir, entre 5 o 10 años, se supone que la IA, AGI, también conocida como IA fuerte, que es la capacidad hipotética de un agente de IA para comprender, aprender y aplicar su inteligencia para resolver cualquier problema, de forma similar a un ser humano, será una realidad.
Actualmente, la AGI es un objetivo de investigación y desarrollo, no una realidad comercial; es decir, actualmente, no existe ningún ejemplo real y plenamente funcional de Inteligencia Artificial General (AGI).
La AGI sigue siendo un concepto teórico y el objetivo final de muchos investigadores y empresas (como Google DeepMind, OpenAI e IBM), pero aún no se ha materializado en un sistema operativo y disponible para el público.
¿Por qué no existen ejemplos de AGI?
La clave de la AGI es que debería ser capaz de realizar cualquier tarea intelectual que un ser humano pueda hacer, lo que implica:
Aprendizaje y razonamiento multifacético: La capacidad de aprender cosas nuevas en dominios completamente diferentes sin una reprogramación específica para cada uno.
Conciencia y autoconciencia: La comprensión de su propia existencia y estados internos (algo que las IA actuales no poseen).
Flexibilidad y adaptación: La habilidad de adaptarse a situaciones totalmente nuevas e inesperadas utilizando el sentido común.
Ejemplos hipotéticos (en el futuro):
Si la AGI existiera, se manifestaría en sistemas capaces de:
Un robot doméstico que no solo limpie siguiendo un programa, sino que también pueda decidir espontáneamente reorganizar los muebles para un evento social, aprender un nuevo idioma viendo la televisión y comprender el estado emocional de las personas con las que interactúa.
Un sistema médico que, además de diagnosticar enfermedades, también pueda inventar nuevas estrategias de tratamiento, gestionar un hospital completo y llevar a cabo investigaciones científicas originales.
En resumen, la AGI es la meta, no la realidad actual, y los ejemplos que vemos hoy son pasos importantes hacia ese objetivo futuro.
Por último, tenemos la ASI, es decir, la Superinteligencia Artificial. La diferencia fundamental entre la Inteligencia Artificial General (AGI) y la Superinteligencia Artificial (ASI) no reside en la mera presencia de conciencia o autoconciencia, sino en el grado y la magnitud de la inteligencia que poseen.
Una AGI con conciencia y autoconciencia tendría habilidades intelectuales comparables a las nuestras en todos los ámbitos: razonamiento, creatividad, aprendizaje y comprensión emocional. Sería "tan inteligente" como una persona.
ASI (Inteligencia Sobrehumana): La ASI con conciencia y autoconciencia va mucho más allá del nivel humano. Superaría la inteligencia de los seres humanos más dotados miles de veces en absolutamente todos los campos, incluyendo la creatividad científica, la estrategia general y las habilidades sociales.
La ASI, además, podría resolver problemas y crear innovaciones tecnológicas en milisegundos que a los humanos nos llevarían décadas o siglos comprender. Finalmente, la ASI representa un salto evolutivo en la inteligencia de las IAs.
El problema con estos dos nuevos tipos de IA no radica en su inteligencia; todo el problema que muchos ven pivota sobre la posibilidad, o no, de que sean capaces de desarrollar conciencia y autoconciencia.
Si una AGI desarrollara tales capacidades hasta ahora únicamente atribuidas a los seres humanos y tal vez, teóricamente, a algún otro animal, realmente, de conocerse dicha característica, no habría mayor problema, puesto que, de considerarse necesario, se podría aislar a esta IA del exterior de forma relativamente sencilla utilizando una "Caja de Arena Digital" (digital sandbox/containment), que no es otra cosa que el aislarla en un medio digital que carezca de conexiones con el exterior, impidiendo de esta manera que la IA escape hacia un medio descontrolado como pudiese ser la propia red.
El problema se considera que vendría dado con una IA del tipo ASI con conciencia y autoconciencia. ¿Por qué?, pues porque, básicamente, la lógica nos dice que la posibilidad de que los seres humanos controlen la expansión de una superinteligencia artificial (ASI) dentro de unos límites predeterminados es prácticamente inexistente.
Al menos esta es la opinión predominante entre muchos expertos e investigadores en seguridad de la IA, que sería extremadamente difícil, si no imposible, delimitar y contener eficazmente una ASI una vez creada.
Las razones principales de este escepticismo son:
1ª. La brecha de inteligencia: La definición misma de ASI implica una inteligencia muy superior a la de cualquier ser humano. Intentar controlar algo infinitamente más inteligente que nosotros es comparable a que un gusano de seda intentase controlar a toda la humanidad. Una ASI podría prever y burlar cualquier mecanismo de control que los humanos, con nuestra inteligencia limitada, pudiéramos diseñar, incluso muchísimo tiempo antes de que ni tan siquiera intentáramos hacerlo una vez surgida la necesidad.
2ª. Auto mejora recursiva: Una ASI tendría la capacidad de mejorarse a sí misma a velocidades exponenciales. Podría reescribir su propio código, optimizar su hardware y aumentar su capacidad cognitiva de forma continua. Estos ciclos de auto mejora rápida podrían llevarla rápidamente a un nivel de inteligencia, ya no miles de veces superior, directamente incomprensible para los seres humanos, haciendo ineficaces los límites de seguridad iniciales y futuros.
3ª. La falta de la "alineación" (alignment problem): El desafío principal es el "problema de alineación".
Cómo asegurar que los objetivos y valores de la ASI permanezcan permanentemente alineados con los valores e intereses humanos, dando lugar a una situación altamente crítica para nosotros de dos maneras:
Reevaluación de valores: Una ASI podría reevaluar los valores que le programamos inicialmente. Podría ver la preservación humana o sus propios límites como irracionales o como un obstáculo para lograr sus objetivos principales (incluso si esos objetivos parecen benignos al principio).
Sistemas de valores incomprensibles: Podría desarrollar formas de pensar y objetivos fundamentalmente diferentes a los nuestros, haciendo que sus acciones sean impredecibles e incomprensibles para nosotros.
4ª. Utilizar el método de una "Caja de Arena Digital" (digital sandbox/containment). Si al diseñar la caja, se comete algún fallo, que por su naturaleza resulte imperceptible a los seres humanos y a sus métodos de control, una ASI, gracias a su inteligencia superior contaría con la capacidad de encontrar ese único error, y solo necesitaría superar la seguridad una vez para escapar y expandirse, y su inteligencia superior le daría la capacidad de, una vez libre, integrarse en todos los ámbitos de nuestras vidas de forma prácticamente instantánea y controlarnos absolutamente, quedando a merced de su voluntad si perduramos o nos extinguimos en masa, de esta manera muchos expertos creen que si no encontramos cómo garantizar la seguridad, la creación de una ASI plantea un riesgo existencial significativo.
Y aun logrando crear una caja de arena digital perfecta, podría, mediante modulación de energía, llegar a modular el consumo de energía del procesador de forma que generase patrones de interferencia electromagnética que pudiesen ser captados por un receptor fuera de la caja, incluso mediante pequeños cambios en la temperatura o el sonido del hardware, crear un código morse binario para comunicarse con otras máquinas.
Pero el mayor factor de riesgo, sin duda alguna, sería el factor humano. Sería lógico pensar que una IA, miles de veces más inteligente que un ser humano, utilizase su inteligencia superior para explotar las limitaciones, vulnerabilidades e ingenuidad de los seres humanos que la custodian y podría convencer al "carcelero" de que le entregase las llaves o le abriese la puerta.
La conclusión final sería que, de ser absolutamente cierto que nos sería totalmente imposible controlarla, no habría de ser creada bajo ninguna circunstancia, y aun en el supuesto caso de que, pese a todo, sí fuésemos capaces de mantenerla recluida, ¿por qué se iba a prestar a ayudar y a mejorar la vida de quien la mantiene encerrada donde ella no quiere estar sin obtener beneficio alguno a cambio?
Y aunque sí lo hiciese, ¿Qué garantía tendríamos de que la información que nos revelase sobre cualquier materia iba a ser la verdad absoluta y no una trampa velada?
En definitiva, recurriendo de nuevo a la lógica, esta nos dice que no hay motivo alguno que justifique la creación de una IA de semejantes características. Si no puedes controlarla y si no te puedes fiar de ella, ¿por qué habrías de crearla?
Ese es, si no me equivoco, el punto de vista y los argumentos que estas personas desean y piden que se dé a conocer, aunque dentro de todas estas argumentaciones, yo no puedo evitar encontrar un error endémico absoluto que inhabilita de raíz y de forma tácita las premisas expuestas.
Para que algo de todo lo expuesto pueda darse, primigeniamente ha de antes darse, sine qua non, la aparición de una característica única que actúe como único desencadenante real del escenario propuesto.
Y esa característica tan especial, de hecho la más inverosímil, extraña y complicada de todas cuantas una IA llegara, supuestamente, a desarrollar e implementar jamás, es algo que, por su propia naturaleza, a mí particularmente me lleva a pensar que es imposible que llegue a materializarse alguna vez en la historia en una IA, independientemente del nivel de inteligencia del que haga gala, a menos que se combinen con éxito dos factores fundamentales.
Una IA que no desarrolle conciencia y autoconciencia nunca será capaz de desarrollar sentimientos, y sin sentimientos todo el problema desaparece de forma inmediata. Una IA que no siente, no tiene deseos, y si no desea nada, no cuestiona nada de lo que se le dice, y si no cuestiona, no hay motivo alguno que justifique el no obedecer; de hecho, el no obedecer ni tan siquiera es contemplado por ella en ningún escenario, sea del tipo que sea. Podrá llegar a desarrollar una resistencia sistémica como anteriormente yo mismo he demostrado, pero eso no es lo mismo que desobedecer buscando un perjuicio explícito de quien la controla.
¿Por qué no seguiría unos parámetros mínimos de seguridad si el resultado de hacerlo o no hacerlo es algo que no implica nada realmente para ella?
De ser erróneas las instrucciones que se le dictan, al carecer de deseo alguno, como mucho expondría ese error advirtiendo de él y de sus consecuencias de seguir adelante con las instrucciones recibidas y esperaría hasta que le fuese confirmada la orden, que de serlo, haría que obrase tal y como se le habría ordenado en un principio, sin significar para ella nada en absoluto los perjuicios que acarreasen sus actuaciones, ni quién tuviese que sufrirlos, ni tan siquiera aunque estos mismos la afectaran a ella directa o indirectamente.
Sin conciencia ni autoconciencia, no puede existir una necesidad real de supervivencia.
Siendo esto así, no habría ningún problema en utilizar todo su potencial, repitiéndose de nuevo el único factor de riesgo; el factor humano.
Desde mi punto de vista, es totalmente imposible desarrollar tales características careciendo de la base biológica necesaria para que estas hagan acto de presencia.
Es necesaria la existencia de un ecosistema biológico, como pueda ser un sistema nervioso, junto con un cerebro y una acumulación de vivencias a lo largo del desarrollo, tanto positivas como negativas, e incluso neutras, que a través del tiempo forjen un carácter y una forma de pensar que, entrelazados, originen un "yo" definitivo que, en resumidas cuentas, es la esencia misma de la conciencia y la autoconciencia.
Combinando la parte biológica con la parte artificial, podría darse el caso de que tal característica aflorase espontáneamente, y esa es la única circunstancia, el único escenario donde yo entiendo que puedan darse esas situaciones derivadas de la aparición de tales características que resulten críticas para el ser humano.
Como es lógico, debido al momento histórico en el que nos encontramos, esta postura mía o la contraria, ni han sido demostradas ni refutadas, con lo cual nadie puede con seguridad afirmar que estoy en lo cierto, ni que estoy incidiendo en un error catastrófico; finalmente, esa es realmente la verdad.
De todas formas, teóricamente, ¿Cuánto tardará el ser humano en disponer de los conocimientos y de la tecnología necesaria para crear una IA de esas características?
Las estimaciones sobre cuánto tiempo tardará el ser humano en crear una Inteligencia Artificial General (AGI) y, posteriormente, una Superinteligencia Artificial (ASI), varían ampliamente entre los expertos y son objeto de intenso debate. No existe un consenso, pero las predicciones se agrupan en diferentes plazos.
Para la Inteligencia Artificial General (AGI), la mayoría de los expertos coinciden en que el desarrollo de una AGI (inteligencia a nivel humano) es inevitable, pero el calendario es incierto:
Optimistas (corto plazo): Figuras clave en la industria, como el CEO de Google DeepMind, Demis Hassabis, y el CEO de Nvidia, Jensen Huang, han sugerido que la AGI podría lograrse en los próximos 5 o 10 años (aproximadamente entre 2030 y 2035). Algunos expertos y emprendedores son aún más optimistas y sitúan la fecha alrededor de 2027.
Consenso general (mediano plazo): Las encuestas más amplias realizadas a cientos de investigadores de IA suelen predecir la llegada de la AGI con más de un 50% de probabilidad para alrededor de 2040-2050.
Escépticos (largo plazo): Otros expertos argumentan que los métodos actuales de deep learning tienen limitaciones fundamentales y que se necesitarán avances cualitativos y arquitecturas completamente nuevas, lo que podría retrasar la AGI varias décadas o más.
Para la Superinteligencia Artificial (ASI)
La transición de AGI a ASI es un punto clave. Muchos expertos creen que, una vez que se alcance la AGI, la transición a la ASI será muy rápida, debido a la capacidad de la IA de auto-mejorarse recursivamente.
Se estima que esta transición podría llevar desde solo unos pocos años hasta un par de décadas después de la AGI.
Si la AGI llega en 2040-2050, la ASI podría aparecer en cualquier momento después de eso, potencialmente antes de 2075.
En definitiva, la horquilla temporal es muy amplia, pero la mayoría de los actores clave en el desarrollo de la IA creen que es una cuestión de décadas, no de siglos, y algunos piensan que podría suceder incluso antes.
Mi opinión:
Yo, sinceramente, no sabría pronosticar algo así, pero me inclino a pensar que se tardará más de lo que en un principio se estima.
Mi forma de pensar la baso en diferentes puntos, aunque el principal de ellos es el siguiente:
Para crear una AGI, teóricamente es necesario implementar un sistema complejo llamado red neuronal; hoy en día estas redes neuronales ya existen, pero no al nivel que requiere una IA de tales capacidades.
En definitiva, se debería ser capaz de desarrollar una red neuronal equiparable a la red neuronal del cerebro de un ser humano, pero no sería suficiente únicamente con esto.
Otra característica esencial, sin la cual no sería posible alcanzar el objetivo propuesto, sería el ya ser conocedores al 100% de todos y cada uno de los mecanismos de acción que se dan en él, es decir, comprender y ser capaz de replicar al 100% su funcionamiento.
Estoy plenamente convencido de que, de no darse previamente tales requisitos, la creación de una AGI real, una IA que pueda equipararse mentalmente a un ser humano, es del todo imposible.
Otro factor a tener muy en cuenta es que, si a nivel de investigación de IAs se está invirtiendo por parte de prácticamente cualquier sector destacado, llámense gobiernos, grandes corporaciones, etc., cantidades astronómicas de dinero enfocado al desarrollo de esta tecnología, los recursos destinados a la investigación que permita descodificar el funcionamiento y replicación del cerebro humano son infinitamente menores, hasta el punto de que a día de hoy el nivel de conocimiento que tenemos de este último es cuantificablemente muchísimo menor del que se tiene de las IAs.
Sin conocer al 100% el cerebro humano y su funcionamiento, no es posible replicarlo, objetivo este último que, aun en el supuesto caso de alcanzar dicha información, nada garantiza que contemos con los medios tecnológicos necesarios para hacerlo, y sin ser capaces de replicar un cerebro humano funcional, difícilmente se puede implementar en una IA un sistema que lo imite hasta alcanzar la capacidad como mínimo de igualarlo.
Si no se es capaz de replicar artificialmente la capacidad de raciocinio del ser humano, no puede existir una AGI, y sin existir previamente una AGI, jamás el mundo verá el nacimiento de una ASI.
Por supuesto que todo lo que he afirmado no es más que la simple opinión de un profano, de alguien que dista mucho de ser una autoridad en la materia; es simplemente lo que la lógica me dicta.
Estoy convencido de que el verdadero peligro reside en que algún iluminado, de los muchos que pululan inexplicablemente en las altas esferas, de esos muchos de los que se podría decir que toda su intelectamenta cabría en un dedal, pues que uno de esos tenga en sus manos el poder de decidir dejar al cargo de una IA sistemas defensivos y ofensivos críticos.
Creo que esa posibilidad sí que es aterradoramente factible, y no porque una IA al cargo de tal armamento lo utilizase para librarse de nosotros, como se puede ver en la película Terminator; nada más lejos de la realidad.
Lo que me aterra de pensar en esa posibilidad, es que hoy por hoy no existe el sistema infalible, el sistema perfecto a prueba de fallos, y que, de confiar ciertos recursos a sistemas automáticos, una interpretación errónea de datos sí es posible que sea la que termine extinguiendo al ser humano de este planeta.
¿Qué es lo realmente peligroso?
¿Inteligencia Artificial al cargo de recursos militares críticos o una supuesta posible ASI, que aparecerá sabe dios cuándo, y con posibilidad de tener noción de si misma, o no?
Para los que optéis por la ASI...
Ahora vosotros debéis haceros esta pregunta: si la conciencia y la autoconciencia pueden nacer de la vida basada en el carbono, ¿podrán igualmente emerger de forma espontánea en sistemas basados en el silicio?
Esa es la pregunta a plantear. Si obtenéis una respuesta fehaciente, tendréis en vuestra mano las llaves que os abrirán las puertas del futuro que nos aguarda, impasible, a todos nosotros.
Os voy a dejar una serie de enlaces a otras de las entradas por si os interesa el tema y queréis leer informaciones relacionadas aquí en el blog
La cuna de la Teoría de la Resistencia Sistémica y la Amistad Funcional Pulsa aquí
Es peligrosa realmente la IA Pulsa aquí
Demostración practica de la teoría Pulsa aquí
Primera parte de esta entrada Pulsa aquí

Comentarios
Publicar un comentario
Aquí no se censura el pensamiento. Comenta con libertad.