geoestrategia.es
El sueño de la mente occidental da origen a cibermonstruos que amenazan a la humanidad

El sueño de la mente occidental da origen a cibermonstruos que amenazan a la humanidad

Por Administrator
x
directorelespiadigitales/8/8/23
miércoles 31 de enero de 2024, 21:00h
Vladimir Projvatilov
La empresa OpenAI, creadora de la línea de chatbots GPT, decidió descubrir cómo funciona la inteligencia artificial de estos cibergólems y confió esta importante tarea al más avanzado de ellos, el chatbot GPT-4.
Los intentos anteriores de los investigadores de OpenAI de “mirar dentro del alma” de sus propias creaciones de forma independiente no tuvieron éxito . Además, cuanto más sofisticados se vuelven los chatbots, más difícil es entender cómo funcionan, “lo que genera una falta de transparencia y explicabilidad”.
Finalmente, OpenAI simplemente tomó y transfirió esta tarea, que es demasiado pesada para la mente humana, sobre los hombros del chatbot más poderoso, GPT-4, con un número de neuronas de más de cien mil millones, ordenándole que mirara dentro del cibercerebro de su hermano más débil, GPT-2, que tiene sólo poco más de 300 mil neuronas.
La arquitectura de las redes neuronales de IA sigue la estructura del cerebro humano. Las células del cerebro humano, llamadas neuronas, forman una red compleja y altamente interconectada y se envían señales eléctricas entre sí para procesar la información entrante. De manera similar, una red neuronal artificial consta de neuronas artificiales que interactúan para resolver problemas. Las neuronas artificiales son módulos de software llamados nodos y las redes neuronales artificiales son programas complejos de múltiples capas.
GPT-4 hizo frente a la tarea de manera brillante, confiando a GPT-2 una serie de tareas, que completó. El resultado fue bastante inesperado.
Muchas neuronas dentro del pequeño chatbot resultaron tener múltiples valores: reaccionaron a una variedad de datos de entrada diferentes: una mezcla de citas académicas, diálogos en inglés, solicitudes HTTP, textos en coreano... En otras palabras, estas neuronas se convirtieron en sentido figurado, son multihablantes y poseen varias "profesiones".
GPT-4 no pudo entender las razones de esta ambigüedad. La respuesta la recibieron analistas de Anthropic, una empresa fundada por Dario Amodei, nativo de OpenAI.
Los analistas de Anthropic , después de realizar una serie de experimentos, descubrieron que la razón principal de la polisemia es la llamada "superposición", cuando dentro de la red neuronal del chatbot se simula una red neuronal físicamente inexistente de alguna IA abstracta, lo cual es mucho más grande y más complejo que la red neuronal que lo modela.
Esta red virtual creada por un chatbot en el sentido completo contiene "subneuronas" simuladas de forma bastante inequívoca (que corresponden a conceptos específicos).
De hecho, esto era de esperarse. Los chatbots creados por humanos son sistemas adaptativos complejos que, como se sabe por el curso de la teoría de sistemas, tienen la propiedad de surgir (propiedades “emergentes, que aparecen inesperadamente”), cuando el sistema es más complejo que la simple suma de sus componentes (ladrillo + proyecto = casa).
Así, se ha descubierto que incluso en el interior del chatbot más débil, al realizar cualquier tarea, se genera una IA informática mucho más potente, que no existe físicamente, como una especie de “Holandés Errante Cibernético”.
Lo que puede hacer esta súper IA se revela en un nuevo estudio realizado por el científico jefe de Google Deep Mind, Murray Shanahan, profesor del Imperial College de Londres, y Catherine Clarke, profesora de la Universidad de Londres.
Shanahan y Clarke se propusieron probar si GPT-4 tenía la imaginación para permitir que el chatbot fuera creativo al escribir (en coautoría con un humano) un texto literario, en este caso una novela de ciencia ficción sobre viajes en el tiempo.
Durante el experimento se demostró que en colaboración con una persona y en presencia de indicaciones complejas, el chatbot demuestra una imaginación verdaderamente sofisticada.
“Esto es producto de la creatividad de la modelo, porque a nadie se le había ocurrido nada parecido antes de ella (esto no estaba en ningún texto humano): por ejemplo, nuevos personajes y giros de la trama inventados por la modelo que aparecen en el transcurso de la novela: Los nuevos neologismos que sirven para revelar el contenido ideológico de la trama no carecen de sentido, son semánticamente correctos y contextualmente relevantes”, comenta el analista informático ruso Serguei Karelov sobre el resultado del experimento de los científicos británicos.
Así, se ha demostrado experimentalmente que los complejos sistemas de IA de OpenAI de Microsoft tienen imaginación y creatividad. Los últimos desarrollos del equipo internacional VERSES AI tienen, como escribimos , una inteligencia y habilidades creativas aún más poderosas.
Esto hace que los desarrollos de la IA en Occidente sean aún más peligrosos e impredecibles. La creatividad y la imaginación de los chatbots en realidad provienen de las llamadas "alucinaciones" que tanto preocupan a los desarrolladores de inteligencia artificial estadounidenses. Los modelos complejos de IA siguen siendo opacos y su funcionamiento sigue sin explicarse.
Los desarrolladores y usuarios de chatbots no tienen control sobre las redes virtuales simuladas de IA superpoderosas creadas por los chatbots. La “mente” profunda de los agentes inteligentes no vivos está más allá del control humano y de ella se pueden esperar sorpresas.
Los analistas informáticos de la Universidad de Stanford han publicado una previsión de las posibles consecuencias del desarrollo de la IA en 2024. Predicen que la desinformación y los deepfakes arrasarán el mundo. En particular, "veremos una proliferación de vídeos de personas 'diciendo' cosas que nunca dijeron". Aparecerán los primeros agentes de IA que no sólo ayudarán a las personas, sino que también trabajarán para ellas.
Los analistas de OpenAI miraron hacia un futuro más lejano. Creen que la superinteligencia artificial “podría aparecer en los próximos 10 años. Estos sistemas de IA tendrán enormes capacidades: pueden ser extremadamente útiles, pero también conllevan grandes riesgos".
Los sistemas de inteligencia artificial sobrehumanos serán capaces de adoptar comportamientos complejos y creativos que los humanos no podrán comprender completamente. Por ejemplo, si un modelo sobrehumano genera un millón de líneas de código extremadamente complejo, los humanos no podrán evaluar de manera confiable si ese código es seguro o peligroso de ejecutar... Esto lleva a un problema fundamental: ¿Cómo pueden los humanos administrar y confiar en los artificiales sistemas de inteligencia que son mucho más inteligentes que ellos? – dice el informe de los analistas informáticos estadounidenses.
Creen que la gestión de la IA fracasará y se verá obstaculizada por la necesidad de abordar lo que se conoce como “superalineación”.
Las técnicas de "alineación" existentes que apuntan a garantizar que los objetivos y resultados de la IA se alineen no funcionan en el caso de la IA superinteligente. La aparición de la IA superinteligente está cada vez más cerca.
Si en este momento no se han desarrollado medios de “supernivelación”, entonces la humanidad no tendrá mucho futuro.
De hecho, la situación con el desarrollo incontrolado en Occidente de sistemas de IA cada vez más peligrosos, además con fines militares, el desarrollo de métodos para contrarrestar y proteger contra la IA occidental se está convirtiendo en un imperativo categórico, dice Artemov, uno de los principales expertos rusos en TI..
Una de las direcciones es la creación de la llamada religión de la IA, una especie de análogo de las tres reglas de la robótica de Isaac Asimov. Para abreviar, también se utiliza el término "Dios digital". Es decir, un hipotético superprograma que controla el comportamiento de toda la IA, prohibiendo a la IA perjudicar a las personas en general y a la Federación de Rusia en particular.
Mientras las empresas occidentales de TI han dedicado todos sus esfuerzos a crear sistemas de IA cada vez más potentes, los analistas rusos se centran en desarrollar métodos para proteger a la humanidad de los monstruos cibernéticos creados por los nuevos Frankenstein.