Desafío ético en la industria tecnológica por la IA

https://www.eluniversal.com.mx/resizer/v2/4PNIBGXLYBGNJKFLOOF42DNPQU.jpeg?auth=e477bdcc7d4a6bee95a2a5dda6f6d17ef0f6a7864bc40442b27ada535bd5c5ed&smart=true&width=1100&height=666

En una nueva revisión de sus normas éticas, una importante compañía del sector tecnológico ha suprimido su promesa anterior de no emplear la inteligencia artificial (IA) en usos ligados a armamento o vigilancia que puedan violar leyes internacionales o derechos humanos. Anteriormente, la política de la empresa prohibía la creación de tecnologías capaces de causar daño general, incluidas armas, estando en consonancia con los principios de derechos humanos a nivel internacional.

Este cambio ha suscitado diferentes reacciones, tanto en el interior como en el exterior de la empresa. Algunos trabajadores han manifestado su inquietud en foros internos, poniendo en duda la orientación que está adoptando la compañía. Por ejemplo, en la plataforma interna Memegen, se publicaron memes y comentarios críticos acerca de la decisión, demostrando preocupaciones sobre el empleo de la IA en ámbitos militares y de vigilancia.

La revisión de las pautas se da en un contexto de creciente competencia mundial por el dominio de la IA. Los directivos de la empresa sostienen que las democracias deben encabezar el desarrollo de la IA, guiándose por valores esenciales como la libertad, la igualdad y el respeto a los derechos humanos. Asimismo, subrayan la importancia de la cooperación entre empresas, gobiernos y organizaciones afines que compartan estos valores para desarrollar una IA que resguarde a las personas, impulse el crecimiento global y apoye la seguridad nacional.

Esta decisión representa un cambio notable respecto a la postura tomada en 2018, cuando la empresa prohibió el uso de su tecnología de IA en armas tras manifestaciones internas relacionadas con un contrato con el Departamento de Defensa de Estados Unidos para analizar videos de drones. Desde entonces, la tecnología ha progresado enormemente, y la IA se ha transformado en una herramienta omnipresente en múltiples aplicaciones, desde dispositivos móviles hasta internet.

Al eliminar la prohibición, la empresa se alinea con otras del sector tecnológico que permiten ciertas aplicaciones militares de sus tecnologías. Por ejemplo, desarrolladores de IA como Meta y OpenAI han permitido que sus tecnologías se utilicen en contextos militares. Esta tendencia refleja un replanteamiento de las políticas corporativas en respuesta a las dinámicas geopolíticas y los avances tecnológicos actuales.

La eliminación de la prohibición alinea a la empresa con otras en el sector tecnológico que permiten ciertas aplicaciones militares de sus tecnologías. Por ejemplo, desarrolladores de IA como Meta y OpenAI han permitido el uso de sus tecnologías en contextos militares. Esta tendencia refleja una reevaluación de las políticas corporativas en respuesta a las dinámicas geopolíticas y los avances tecnológicos actuales.

Sin embargo, esta decisión también ha suscitado preocupaciones entre expertos y defensores de la ética en la IA. Algunos argumentan que el desarrollo de sistemas de armas autónomas y herramientas de vigilancia impulsadas por IA podría tener implicaciones éticas y de derechos humanos significativas. La comunidad científica ha advertido sobre los riesgos asociados con el desarrollo de armas autónomas y ha abogado por un sistema de control global para mitigar posibles amenazas.