Los desarrollos tecnológicos no buscan reemplazar a los humanos sino mejorar sus capacidades y contribuciones, pero hay que considerar que hay peligros inherentes.
Cada vez se difunden más noticias sobre inteligencia artificial (IA). Algunas son negativas y otras positivas, pero es un hecho que la tecnología que imita la capacidad intelectual humana y se nutre a medida que recopila información cambiará el mundo e impactará en las profesiones más calificadas; entre ellas, la abogacía, el periodismo y la ingeniería, sólo por citar algunas.
En este contexto, Unesco pidió a los 193 Estados miembro que apliquen el Marco Ético Mundial sobre el tema que adoptaron en 2021.
Herramientas
Los avances de la IA preocupan a los países de Europa desde antes de que desarrollaran la totalidad de las herramientas capaces de crear textos, imágenes o música a partir de instrucciones.
La iniciativa europea prevé cuatro tipos de riesgos:
En lo más alto figura el “inaceptable” y, por lo tanto, prohibido. En la categoría entran las aplicaciones que permiten, como en China, el denominado “social scoring”, el sistema de puntuación que determina la credibilidad o reputación de una persona de acuerdo con varios factores, como su actividad en redes sociales.
Le sigue el “alto riesgo”, en donde encuadran tecnologías como la herramienta de escaneo de CV para evaluar y jerarquizar a solicitantes de empleo y algunas aplicaciones médicas, que quedarán sujetas a requisitos legales.
El tercero es la “IA con obligaciones específicas de transparencia”, en el que se incluyen los bots de suplantación.
Finalmente, las de riesgo “mínimo o inexistente” serán permitidas sin restricción.
Italia bloqueó la herramienta ChatGPT, de la empresa tecnológica estadounidense OpenAI, la cual es capaz de simular conversaciones humanas.
El garante italiano para la Protección de Datos Personales aseguró que no hay una base jurídica que justifique la recopilación y conservación masiva de datos personales.
También alegó que la información generada por ChatGPT no siempre corresponde a la realidad y cuestionó la ausencia de filtros en la verificación de la edad de sus usuarios, a pesar de que el servicio está dirigido a mayores de 13 años.
En este sentido, denunció que los niños están expuestos a respuestas “no idóneas respecto a su nivel de desarrollo y conciencia”.
Previamente, un grupo integrado por académicos, expertos en inteligencia artificial (IA) y ejecutivos, tales como Elon Musk, pidió una pausa de seis meses en el desarrollo de sistemas más potentes, en una carta abierta que citó amenazas potenciales para la sociedad y la humanidad.
La misiva fue firmada por más de mil personas, reclamó un freno en el desarrollo avanzado de la IA hasta que expertos independientes desarrollen, implementen y auditen protocolos de seguridad.
Finalmente, la Comisión Europea (CE) anunció que buscará que todo contenido generado por IA lleve advertencias, sean textos o imágenes, en base a una propuesta que presentó hace dos años para establecer requisitos y obligaciones en relación con sus usos específicos.
Los denominados deep fakes (contenido que imita la voz o apariencia de una persona) deberán tener una etiqueta informando de ello.
Hace dos meses, un belga preocupado por el medio ambiente que “dialogó” seis semanas con Eliza, un prototipo creado con inteligencia artificial, se quitó la vida. El suicidio causó consternación en Bélgica y las autoridades del país instaron a aclarar las responsabilidades en estos casos. El hombre tenía 30 años y fue apodado Pierre en los medios para no revelar su identidad. Estaba casado y tenía dos hijos.
Era universitario, investigador en el área sanitaria y estaba preocupado por la crisis climática y el futuro del planeta, según reveló su esposa al diario La Libre Belgique. El suicidio de Pierre tras la incitación del prototipo revela los peligros de la manipulación emocional que puede motorizar la inteligencia artificial.
Texto: María del Pilar Viqueira