La Casa Blanca ha invitado a un director de empresas avanzadas en inteligencia artificial (IA), como Google, Microsoft, OpenAi y Anthropic, para realizar esta actividad para jóvenes. «discusión sobre ‘los riesgos’ asociados a esta tecnología con varios miembros del Gobierno, entre ellos la vicepresidenta Kamala Harris.

«Nuestro objetivo es tener una discusión franca sobre los riesgos actuales ya corto plazo que percibimos en los desarrollos de IA”, de la invitación.

(Además: ChatGPT: ¿la inteligencia artificial le podría quitar su trabajo?)

El gobierno también busca discutir «pasos para reducir esos riesgos, y otras maneras en que podemos trabajar juntos para asegurarnos de que los estadounidenses se beneficien de los avances de la IA mientras están protegidos de peligros»

Satya Nadella (Microsoft), Sundar Pichai (Google), Sam Altman (OpenAI) y Dario Amodei (Anthropic) han confirmado su participación, junto a Casa Blanca.

Allá inteligencia artificial ha estado presente en la vida cotidiana durante añosdesde los algoritmos de las recomendaciones de las redes sociales hasta los electrodomésticos de alta gama.

(También: Profesor, programador y otras carreras en riesgo por la inteligencia artificial)

Sin embargo, el deslumbrante desde fines del año pasado de ChatGPT, la interfaz de IA generativa de OpenAI, una empresa emergente financiada con gran éxito por Microsoft, fue el punto de partida para una carrera hacia sistemas cada vez más intuitivos y eficientes, que su capacidad para generar mensajes de texto, imágenes y códigos de programación cada vez más complejo.

Su lanzamiento despertó entusiasmo e inquietudes a una nueva escalada. Especialmente con Sam Altman, el director de OpenAI, anticipó la próxima generación de la llamada IA ​​»general»donde los programas serán «más inteligentes que los humanos en general».

(Lea: IA de ChatGPT es el mayor avance tecnológico en décadas, según Bill Gates)

Riesgos Latentes de la Inteligencia Artificial

El hueso Riesgos de IA van desde la discriminación por algoritmos hasta la automatización de tareas realizadas por humanos, el robo de propiedad intelectual o la desinformación exige a gran escala, entre otros.

«Los modelos de lenguaje capaces de generar imágenes, sonido y video son un sueño hecho realidad para quienes quieren destruir las democracias«, vino el profesor de UC Berkeley, David Harris, especialista en políticas públicas e IA.

(Las recomendaciones: Zelenski pide a CPI un tribunal especial para juzgar ‘crímenes de agresión rusa’)

Google ha anunciado sus nuevas herramientas de IA.

A finales de 2022, la Casa Blanca publicará un «Plan para una Declaración de Derechos de la IA», un breve documento que enumerará principios generales como la protección contra sistemas peligrosos o falible.

A principios de este año, el Instituto Nacional de Estándares y Tecnología (NIST), un centro afiliado al gobierno, diseñó un «marco para la gestión de riesgos» relacionado con la IA.

El presidente Biden dijo el mes pasado que estas empresas «claramente (…) deben asegurarse de que sus productos sean seguros antes de ponerlos a disposición del público en general”, previa invitación.

(Puede leer: ¿Qué impacto tendrá el presunto ataque con dron al Kremlin?)

Sin embargo, «estas directivas y declaraciones no obligan a las empresas afectadas a hacer nada», subrayo David Harris, quien fue director de investigación en IA en Meta

Los riesgos de la IA van de la discriminación por algoritmos hasta la automatización de tareas realizadas por humanos, el robo de propiedad intelectual o la desinformación exige una gran escala.

Las empresas reconocen las amenazas

Los gigantes de la IA no niegan que existen riesgos, pero temen que se apodera de la innovación por leyes demasiado restrictivas.

«Estoy seguro de que la IA será utilizada por actores maliciosos, y sí, va a causar daños», dijo el miércoles el jefe económico de Microsoft, Michael Schwarz, durante un panel en el Foro Económico Mundial de Ginebra, según Bloomberg.

(Más noticias: ¿Qué se sabe exactamente del ataque contra el Kremlin denunciado por Rusia?)

Pero pidió a los legisladores que no se presuren y que cuando haya un «daño real», se aseguren de que «los beneficios de la regulación sean mayores que el precio para la sociedad».

«La última vez que nos enfrentamos a semejantes convulsión social debido a las tecnologías fue a comienzos de la web 2.0, en los años 2002″, dijo el miércoles Lina Khan, presidenta de la Comisión Federal de Comercio, la agencia estadounidense de protección al consumidor.

Al otro lado del Atlántico, Europa espera liderar de nuevo el camino hacia una regulación ad hoc en torno a la IA, como ya los hizo con la ley de datos personales.

AFP