domingo, noviembre 17
Shadow

Los líderes del G7 buscan regular la inteligencia químico

Los líderes del G7 buscan regular la Inteligencia Artificial

Los líderes del G7 decidieron este sábado, en un vértice en Hiroshima (Japón), la formación de un futuro “conjunto de trabajo” para tocar el “uso responsable” de la Inteligencia Artificial (IA) y los riesgos que conlleva, incluida la desinformación.

“Encargamos a los ministros pertinentes que establezcan el Proceso de Hiroshima sobre IA, a través de un conjunto de trabajo creado en colaboración con organizaciones internacionales, para discutir la IA generativa a finales de este año.”, según el comunicado del G7, cuya reunión finalizará el domingo.

Como Chat GPTActualmente los programas de inteligencia químico generativa más conocidos (capaces de crear textos, imágenes, sonidos, vídeos…) están en auge en el mundo, a la vez que suscitan una profunda preocupación en muchos sectores.

Las discusiones del conjunto de trabajo del G7 sobre el tema todavía podrían discutir «gobernanza, protección de los derechos de propiedad intelectual» y «uso responsable» de estas nuevas tecnologías. También con respecto a la medios para contrarrestar la «manipulación de la información» y la «desinformación» a través de estas herramientas.

“Estamos comprometidos a promover múltiples enfoques para el establecimiento de estándares de IA, mientras nos adherimos a los marcos legales vinculantes”.

el G7

“Reconocemos la importancia de los procedimientos que promuevan la transparencia, la transigencia, los juicios justos, la imparcialidad, el respeto a la privacidad y la inclusión para promover la IA responsable”, insistió el G7, que reúne a las mayores democracias industrializadas (Estados Unidos, Japón, Alemania, Francia, Reino Unido, Italia y Canadá).

Los peligros de las nuevas tecnologías

Académicos y personalidades mundiales han despabilado de los peligros que representa esta nueva tecnología.

Yuval Noah Harari, el historiador israelí autor de «Sapiens», es uno de los intelectuales más alarmados y activos en su denuncia. Está tan preocupado que el mes pasado se unió a una carta firmado por miles de expertos, entre ellos Elon Musk, que pidió una moratoria a la investigación en programas como Chat GPTun maniquí de inteligencia químico capaz de interactuar con los humanos en textos creativos con matices casi inquietantes.

Esta es una amenaza particularmente severo para las democracias.más que para los regímenes autoritarios, porque las democracias dependen de la conversación pública”, dijo Harari en una entrevista publicada por medios británicos. El Telégrafo.

“La democracia es básicamente conversación. Gente hablando entre sí. Si AI se hace cargo de la conversación, la democracia se acaba», dijo.

Y advirtió sobre el objeto que podría tener la tecnología si fuera desatada maliciosamente en el campo de batalla por regímenes totalitarios. “El régimen fascista se basó en tecnologías como trenes, electricidad y radios. No tenían herramientas como la inteligencia químico. Un nuevo régimen en el siglo XXI tendrá herramientas mucho más poderosas. Entonces las consecuencias podrían ser mucho más graves. Es poco que no sé si la humanidad puede sobrevivir».

La IA como beneficio para la humanidad

El CEO y cofundador de Open AI, desarrollador del software de engendramiento de texto ChatGPT, Sam Altman, pidió el martes al Congreso de EE. UU. que regule el expansión y los usos de la inteligencia químico (IA).

En una aparición frente a un subcomité del Senado, Altman enumeró las aplicaciones beneficiosas de la tecnología, desde la medicina hasta la lucha contra la crisis climática, y tenía la esperanza de que la IA pudiera estar de moda para beneficiar a la humanidad. Pero precisó que es necesaria la intervención de los gobiernos del mundo para que estas herramientas se desarrollen de modo que se protejan y respeten los derechos y libertades de los ciudadanos.

“Creemos que los beneficios de las herramientas que hemos desarrollado hasta ahora superan los riesgos”, defendió el patrón durante la audiencia.

Link Referencia