geoestrategia.es

La inteligencia artificial podría afectar a unos 300 millones de empleos en todo el mundo

Por Elespiadigital
x
infoelespiadigitales/4/4/19
viernes 31 de marzo de 2023, 17:00h

El desarrollo de la inteligencia artificial generativa (IA) podría tener un "impacto significativo" en el mercado laboral, al provocar la automatización de unos 300 millones de trabajos a tiempo completo en todo el mundo, según un informe del banco estadounidense Goldman Sachs.

Redacción

 

El desarrollo de la inteligencia artificial generativa (IA) podría tener un "impacto significativo" en el mercado laboral, al provocar la automatización de unos 300 millones de trabajos a tiempo completo en todo el mundo, según un informe del banco estadounidense Goldman Sachs.

La IA generativa es un tipo de inteligencia artificial que utiliza modelos de aprendizaje automático para generar textos y crear contenidos originales en respuesta a las indicaciones del usuario. El bot de ChatGPT funciona según este principio, al igual que la red neuronal DALL-E, que permite hacer imágenes creíbles.

El documento muestra que al menos dos tercios de los trabajos actuales están expuestos a algún grado de automatización si tales avances tecnológicos cumplen con las capacidades prometidas, mientras que hasta un cuarto de ellos podría ser reemplazado por IA generativa.

Por otro lado, la aplicación de la tecnología de IA puede acelerar el crecimiento de la productividad laboral y con ello aumentar el PIB global en un 7 % de aquí al 2030. Sin embargo, afectaría directamente al mercado laboral, puesto que se automatizaría el equivalente a 300 millones de trabajos a tiempo completo en todo el mundo, según exponen Joseph Briggs y Devesh Kodnani, autores del informe.

Al decir de ambos expertos, los empleos del área administrativa son los más propensos a verse afectados por estas nuevas herramientas. En EE.UU., el 7 % de los empleos será sustituido por la IA, mientras que el 63 % podría ver automatizada algo menos de la mitad de su carga laboral. En ese orden, serían los puestos administrativos y de apoyo legal los más afectados, con 46 % y 44 %, respectivamente, seguidos por las profesiones de arquitectura e ingeniería con 37 %. Mientras, otro 30 % no se verá afectado, aunque esto dependerá de cómo evolucionen la demanda de mano de obra y las cargas de trabajo profesionales en respuesta al ahorro parcial en la mayoría de las ocupaciones.

Los datos para Europa muestran un panorama similar, con los empleos de oficina relacionados con la administración como los más afectados. En general, 24 % de todo el trabajo en Europa está expuesto a la automatización por IA, en comparación con el 25 % en EE.UU.

Los empleos de construcción, limpieza, mantenimiento y al aire libre, que requieren una actividad física, son los menos propensos a verse afectados.

Musk y Wozniak, entre los 1.000 expertos que piden que se frene el entrenamiento de la IA

El CEO de SpaceX, Tesla y Twitter, Elon Musk, junto con el cofundador de Apple, Steve Wozniak, han firmado una carta en la que hacen un llamado a todos los laboratorios de inteligencia artificial (IA) a "pausar inmediatamente" el entrenamiento de los sistemas de IA más potentes que el GPT-4 durante al menos 6 meses.

"Los sistemas de IA con inteligencia humana-competitiva pueden suponer graves riesgos para la sociedad y la humanidad, como lo demuestra una extensa investigación y reconocido por los principales laboratorios de IA", se lee en la misiva firmada por más de mil ejecutivos y expertos en IA.

El documento, publicado el pasado miércoles por Future of Life Institute, una organización sin ánimo de lucro, denuncia que la IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra. En ese contexto, se insta a "planificar y administrar con el cuidado y los recursos correspondientes", dado que aseguran que tal nivel de gestión no está ocurriendo.

"Carrera fuera de control"

A pesar de que en los últimos meses los laboratorios de IA han entrado en "una carrera fuera de control" para desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de forma fiable, se detalla.

El pasado 16 de marzo, el director ejecutivo de OpenAI, Sam Altman, admitió que estaba "un poco asustado" por haber creado el ChatGPT y agregó que se encontraba "particularmente preocupado por que estos modelos puedan usarse para la desinformación a gran escala", en referencia al GPT-4, la nueva versión de ChatGPT que "exhibe un rendimiento a nivel humano en varios puntos de referencia académicos y profesionales".

En la misma jornada, el buscador chino Baidu, reveló su alternativa china al ChatGPT, el chatbot de inteligencia artificial 'Ernie bot', cuyas tareas incluyen comprensión y generación de lenguaje, conversión de texto a imagen, composición de poesía y producción de audio en dialectos chinos. Además es capaz de crear itinerarios de viaje y realizar transmisiones en vivo para anunciar productos.

"No nos apresuremos a caer sin estar preparados"

"¿Deberíamos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedad?", instan a cuestionar en la carta. "¿Deberíamos desarrollar mentes no humanas que eventualmente puedan superarnos en número, ser más inteligentes, hacernos obsoletos y reemplazarnos?, ¿deberíamos arriesgarnos a perder el control de nuestra civilización?", continúan.

En ese sentido, exhortan a que se desarrollen los sistemas de IA cuando exista seguridad de que sus efectos serán positivos y sus riesgos manejables. Asimismo, manifiestan que los laboratorios de IA y los expertos independientes deberían aprovechar esta pausa para desarrollar e implementar conjuntamente protocolos de seguridad compartidos para el diseño y desarrollo avanzados de IA que sean rigurosamente auditados y supervisados por expertos externos independientes.

En ese marco, instan a los desarrolladores de IA a trabajar con los legisladores para "acelerar drásticamente el desarrollo de sistemas de gobierno robusto" en el área de la IA, que deberían de incluir autoridades reguladoras nuevas y capaces dedicadas a la IA.

Se explica además que la sociedad anteriormente ya había hecho una pausa en otras tecnologías con efectos potencialmente catastróficos en la humanindad, tales como la clonación humana y otras áreas de la genética. "Podemos hacerla aquí", demandan. "No nos apresuremos a caer sin estar preparados", concluyen.