geoestrategia.es
¿Ha comenzado ya el auge de las máquinas?

¿Ha comenzado ya el auge de las máquinas?

Por Administrator
x
directorelespiadigitales/8/8/23
jueves 09 de noviembre de 2023, 21:00h
Vladimir Projvatilov
La revista estadounidense Foreign Policy publicó un memorando de dos pesos pesados ​​de la política, Henry Kissinger y Graham Ellison, en el que pedían a los líderes de los principales países del mundo que asumieran el control del desarrollo de los sistemas de inteligencia artificial, cuyo desarrollo descontrolado podría llevar a la humanidad al borde de una crisis. catástrofe mundial.
“La perspectiva de que la IA sin restricciones tenga consecuencias catastróficas para Estados Unidos y el mundo es tan convincente que los líderes gubernamentales deben actuar ahora”, imploran Kissinger y Ellison a los líderes mundiales.
Creen que los riesgos asociados con la IA superan los riesgos de las armas nucleares para la humanidad. En su opinión, todas las propuestas existentes (pausar el desarrollo de la IA, detener el desarrollo de la IA por completo, hacer que la IA esté controlada por un organismo gubernamental global) replican diseños de seguridad de la era nuclear que, en su opinión, han fracasado. La complejidad de la situación es que cada una de estas propuestas requiere que los Estados líderes renuncien a la prioridad de su propia soberanía.
Kissinger y Ellison hacen varias preguntas sobre la IA: “¿Las máquinas con habilidades sobrehumanas amenazarán el estatus de la humanidad como amo del universo? ¿Está la IA socavando el monopolio de los países sobre los medios de violencia masiva? ¿Permitirá la IA a individuos o grupos pequeños crear virus capaces de matar a una escala que antes era reservada a las grandes potencias? ¿Puede la IA destruir la disuasión nuclear que ha sido la base del orden mundial actual? Kissinger y Ellison admiten que nadie puede responder ahora a estas preguntas.
La ventana de oportunidad para desarrollar directrices para prevenir los aspectos más peligrosos de la IA es extremadamente estrecha. Kissinger y Ellison insisten en que se deben tomar medidas de inmediato.
No hay duda de que la verdadera revolución generativa de la IA que ocurrió en 2023, sobre la cual escribimos anteriormente, obligó a dos de los políticos estadounidenses más experimentados a emitir una advertencia tan alarmante.
Muchos analistas comparan los sistemas de IA generativa en rápido desarrollo con el Golem medieval, que se sabe que mató a su creador.
Recientemente, a los chatbots más famosos que utilizan IA generativa se les hizo la pregunta: "En cierto sentido, ¿puedes ser considerado un Golem?"
Tanto Bard de Google como GRT-4 de Microsoft fueron unánimes en su afirmación de su superioridad sobre Golem: "No soy ni un tonto ni un alma... Estoy animado por algoritmos informáticos y electricidad".
Ambos chatbots respondieron que eran capaces de aprender y crecer, además de reconocer y responder a las emociones humanas.
Estas respuestas de dos de los chatbots generativos más famosos provocaron una ola de publicaciones alarmantes en los medios mundiales.
“Imagínate que cuando te subes a un avión, la mitad de los ingenieros que lo construyeron te dicen que hay un 10 por ciento de posibilidades de que el avión se estrelle, matándote a ti y a todos los que están a bordo. ¿Aún te sentarías? En 2022, más de 700 científicos e investigadores destacados de empresas líderes en inteligencia artificial participaron en una encuesta sobre los riesgos futuros de la IA. La mitad de los encuestados dijo que había un 10 por ciento o más de posibilidades de extinción humana (o privación de derechos igualmente permanente y severa) debido al desarrollo futuro de los sistemas de inteligencia artificial. Las empresas de tecnología que construyen hoy grandes modelos lingüísticos están inmersas en una carrera para colocar a toda la humanidad en ese plano”, escribe el destacado historiador y futurista Yuval Harrari en The New York Times.
“Los golems de IA podrían utilizarse para una vigilancia generalizada, comprometiendo la libertad de privacidad. Las libertades individuales y civiles podrían estar en riesgo si los gobiernos y las organizaciones abusan de las tecnologías de vigilancia basadas en inteligencia artificial. Existe el peligro de que los golems de IA se utilicen para crear sistemas de armas autónomos o se programen para difundir desinformación y llevar a cabo ciberataques”, preocupa el analista empresarial Alex Hong, radicado en Singapur.
La organización sin fines de lucro Future of Life publicó una carta abierta en la que participan el director ejecutivo de SpaceX, Elon Musk, el cofundador de Apple, Steve Wozniak, cofundador del recientemente creado Forward Party por ex republicanos y demócratas. El filántropo Andrew Yang y alrededor de mil otros investigadores de inteligencia artificial pidieron una suspensión inmediata del entrenamiento de sistemas de IA "más poderosos que GPT-4".
Más de 1.125 personas firmaron el llamamiento , incluido el cofundador de Pinterest, Evan Sharp, el cofundador de Ripple, Chris Larsen, el director ejecutivo de Stability AI, Emad Mostak, e investigadores de Google DeepMind Technologies, Harvard, Oxford y Cambridge. La carta fue firmada por los pesos pesados ​​de la IA, Yoshua Bengio y Stuart Russell. Russell también pidió que se detenga el desarrollo de la IA generativa hasta que expertos independientes desarrollen, implementen y verifiquen protocolos de seguridad comunes para dichos sistemas de IA.
“Los sistemas de inteligencia artificial competitivos entre humanos pueden representar una seria amenaza para la sociedad y la humanidad, como lo han demostrado extensas investigaciones y como lo han reconocido los principales laboratorios de inteligencia artificial... La IA avanzada podría desencadenar cambios profundos en la historia de la vida en la Tierra y debería desarrollarse y gestionado con cuidado y recursos proporcionados. Desafortunadamente, este nivel de planificación y gestión no existe, incluso cuando los laboratorios de inteligencia artificial se han visto atrapados en los últimos meses en una carrera fuera de control para desarrollar y desplegar “mentes digitales” cada vez más poderosas que nadie, ni siquiera sus propios empleados pueden entender, cuyo desempeño no se puede predecir ni controlar de manera confiable”, dice la carta.
Ninguna de las grandes corporaciones involucradas en el desarrollo de la IA generativa respondió a esta carta. Y esto no es una coincidencia.
Si bien los analistas de Deep Mind pidieron que se detuviera estos desarrollos, la propia Deep Mind anunció la creación de un proyecto innovador, "Promptbreeder (PB): automejora autorreferencial a través de la evolución acelerada". Esto crea una IA generativa que se mejora a sí misma. Evoluciona a través de “mutaciones” miles de millones de veces más rápido que los humanos.
Cuanto más mensajes de texto inteligentes reciban los chatbots generativos, más inteligentes serán sus respuestas a las preguntas y más sofisticadas serán las soluciones propuestas por el bot. Mejorar la estrategia de pistas es el desafío número uno para todos los desarrolladores de IA generativa en la actualidad.
Promptbreeder utiliza un mecanismo evolutivo para mejorar iterativamente la información sobre herramientas, lo que significa que no solo mejora la información sobre herramientas, sino que mejora su capacidad para mejorar la información sobre herramientas con cada nueva generación.
Los consejos y soluciones son cada vez más inteligentes. "Esto se logra generando "pistas de mutación": instrucciones sobre cómo mutar para mejorar las pistas de solución", escribe el experto ruso Sergei Karelov, y agrega que "la IA, que prácticamente se automejora, ha alcanzado a la mente humana cuando se trata de trabajar con textos.”
Pero la mente humana trabaja con emociones e imágenes, algo que la IA todavía no puede hacer y sólo avanza en esa dirección. El cerebro utiliza mecanismos neuroquímicos evolutivos en sus procesos; los chatbots se basan en algoritmos. Para la "comprensión" antropoide, a las redes neuronales todavía les falta no tanto poder de hardware como la comprensión que una persona tiene de su propia "caja negra" para construir un modelo similar a ella.
Sin embargo, investigadores del Instituto Tecnológico de Massachusetts afirman que pudieron identificar una comprensión del espacio y el tiempo en el gran modelo de lenguaje generativo de IA Llama 2. Su informe afirma que la IA generativa comprende la ubicación de ubicaciones geográficas en el planeta y los eventos históricos.
Este y otros sistemas generativos de IA construyen en sí mismos modelos holísticos del proceso de generación de datos: modelos del mundo. Han identificado "neuronas espaciales" y "neuronas del tiempo" que codifican coordenadas espaciales y temporales.
Teniendo en cuenta que en sus respuestas a preguntas sobre similitudes o diferencias con el Golem, ni un solo chatbot con IA generativa tocó la ética, y el Pentágono y la CIA, que son los verdaderos clientes de todos estos desarrollos, incluyeron, como escribimos, AI generativa en sus sistemas de combate y reconocimiento, entonces el peligro de crear ciber-Golems de combate que puedan destruir la civilización humana es más relevante que nunca.