Empleo, ética y seguridad: desafíos cruciales de la inteligencia artificial

Hablar de inteligencia artificial es hacer referencia a innovación. Se trata de un tipo de tecnología con capacidades asombrosas, que no solo se adapta, sino que aprende y mejora a partir de la experiencia y los datos.

Cada vez más la inteligencia artificial se hace presente en nuestras vidas. Ha ido transformando industrias, mejorando la eficiencia y planteando nuevas posibilidades en áreas que van desde la medicina hasta la movilidad urbana. Sin embargo, a medida que esta tecnología se vuelve cada vez más revolucionaria empieza a enfrentar una serie de desafíos tanto prometedores como preocupantes. ¿Cuáles son esos desafíos? Te lo explicamos a continuación.

Uso responsable

La inteligencia artificial puede ser una herramienta valiosa para resolver problemas complejos y mejorar la vida humana, pero también puede tener consecuencias negativas como el sesgo y la discriminación en áreas como la contratación de personal, el crédito o la justicia penal.

En ese sentido, es crucial que los desarrolladores, empresas y usuarios aborden la responsabilidad en el uso de la inteligencia artificial y tomen medidas concretas para garantizar que esta tecnología se utilice de manera ética y responsable.

A medida que el tiempo transcurre surgen otras preocupaciones relacionadas a la privacidad, la discriminación algorítmica y la transparencia en las decisiones automatizadas, por lo cual para muchos científicos es fundamental que los países por medio de su legislación establezcan estándares éticos claros y mecanismos de rendición de cuentas.

Antes de utilizar la inteligencia artificial en un proyecto, es importante comprender sus riesgos y limitaciones. Esta tecnología puede ser susceptible a errores y a sufrir una mala interpretación de los datos, lo que puede llevar a resultados erróneos o incluso a dañar la reputación de una empresa u organización. Por lo tanto, la supervisión humana juega un papel clave para conocer y comprender las limitaciones y riesgos asociados al uso de la IA.

De acuerdo con la Unesco a los riesgos asociados a la inteligencia artificial se suman a las desigualdades ya existentes, perjudicando aún más a grupos históricamente marginados.

El mundo está a punto de cambiar a un ritmo que no se veía desde el despliegue de la imprenta hace más de seis siglos. La tecnología de inteligencia artificial aporta grandes beneficios en muchos ámbitos, pero sin unas barreras éticas corre el riesgo de reproducir los prejuicios y la discriminación del mundo real, alimentar las divisiones y amenazar los derechos humanos y las libertades fundamentales”, dijo Gabriela Ramos, subdirectora general de Ciencias del organismo, durante el 2º Foro Mundial sobre la Ética de la Inteligencia Artificial desarrollarlo en Eslovenia en febrero de 2024.

Fortalecimiento de la seguridad

En tanto que los sistemas con inteligencia artificial se vuelven más sofisticados también se vuelven más vulnerables a ataques cibernéticos maliciosos. Proteger estos sistemas contra intrusiones, manipulaciones y accesos no autorizados es esencial para garantizar su funcionamiento seguro y confiable en una variedad de aplicaciones, desde el transporte autónomo hasta las finanzas. Lee también Desafíos de la fotografía en la era de la Inteligencia Artificial

La inteligencia artificial puede utilizarse para crear un malware (programa malicioso) más efectivo, evasivo y personalizado, generando un código dañino, e incluso, puede ocultar el malware hasta encontrar su víctima específica mediante el reconocimiento facial o por voz. También, puede ser utilizada para mejorar y optimizar los ataques de phishing (estafas) al entender y explotar las vulnerabilidades psicológicas de los humanos.

Asimismo, si un ciberdelincuente logra acceder a la información que guarda un chatbot como ChatGPT, podría obtener direcciones IP individuales de cada usuario, tipos de navegadores que utilizan y otros datos relevantes de una empresa o sistema.

Debido a estos riesgos, y algunos otros, grandes empresas como Samsung, han decidido prohibir el uso de ChatGPT y otros programas con IA en los dispositivos de sus empleados hasta que existan medidas de seguridad eficientes contra estas amenazas.

Un informe elaborado por la empresa global Cisco Systems publicado en el segundo trimestre de 2024 señala que cuando se preguntó a los CEO o directivos sobre las políticas de IA de sus empresas sólo el 30%, de la encuesta realizada en Estados Unidos, dijo que su empresa había establecido políticas u orientación sobre el uso de la IA en el trabajo, mientras que la cifra era aún menor para los encuestados en el Reino Unido: (27%). El mismo estudio también puntualiza que el 61% de los máximos responsables de recursos humanos supervisan con qué herramientas de IA trabajan los empleados, y el 27% han prohibido su uso a escala planetaria.

Impacto en el empleo

El impacto de la inteligencia artificial en el mercado laboral genera expectación. Si bien la automatización puede aumentar la productividad y abrir nuevas oportunidades laborales en sectores emergentes, también plantea el riesgo de desplazar la mano de obra humana, por lo cual muchas compañías y gobiernos tendrían que desarrollar estrategias de reentrenamiento y educación continua para preparar a los trabajadores y asegurar la coexistencia.

Para el año 2030, la Unión Europea tiene como objetivo que el 75% de las empresas de los 27 países miembros, hayan adoptado servicios de computación en la nube, macrodatos e inteligencia artificial, según el informe uso de inteligencia artificial y big data en las empresas españolas. https://www.ontsi.es/sites/ontsi/files/202302/Br%C3%BAjula_IA_Big_data_2023.pdf

Muchas actividades humanas actuales consisten en tareas concretas que, cuando se basan en multitud de datos, pueden realizarse más eficazmente recurriendo a la inteligencia artificial. Se calcula que hasta una quinta parte de las tareas desempeñadas por seres humanos en el trabajo consisten en operaciones informáticas repetitivas que pueden automatizarse.

Si bien existen planteamientos que indican que la inteligencia artificial producirá perturbaciones y podrá fin al ámbito laboral tal como lo conocemos todo depende de cómo se interprete. Es cierto que, probablemente, la introducción de la inteligencia artificial conlleve a la transformación drástica de muchos rubros, pero habrá sectores como la industria donde la mano de obra humana seguirá siendo imprescindible.

El temor a la destrucción de los puestos de trabajo vinculado a la introducción de máquinas no es algo nuevo. A comienzos del siglo XIX un movimiento (el ludismo) encabezado por artesanos ingleses se rebeló contra los nuevos inventos de la industrialización, que según ellos amenazaba con dejarlos sin empleos, pero pese a todos los reclamos y destrucción de las fábricas no lograron parar el imparable avance de la industrialización.

Legislación y normativas

El desarrollo de políticas regulatorias efectivas es otro desafío clave. Los marcos legales actuales no parecen ser suficientes para abordar adecuadamente cuestiones como la responsabilidad legal por decisiones automatizadas o la protección de datos personales.

En ese sentido, expertos, gobiernos y organizaciones deben darle importancia a la regulación de la Inteligencia artificial. El interés que ha generado este tema es porque abarca la educación, la industria, los derechos humanos, la democracia, el Estado de derecho y la libertad de expresión, entre otros ámbitos.

El objetivo debe ser prevenir, regular y establecer normas para proteger a la población. El papel de los gobiernos y los legisladores es inminente para fomentar el uso responsable de las tecnologías con inteligencia artificial.

El portal es.euronews.com (https://es.euronews.com/next/2023/05/04/que-paises-estan-intentando-regular-la-inteligencia-artificial) señaló en una nota publicada en mayo de 2024 el listado de países que habían iniciado con la regulación de la inteligencia artificial. La lista la lidera Australia, ya que el gobierno de ese país solicitó asesoramiento al principal organismo asesor científico del país sobre cómo responder a la IA.

China también lleva adelante un proceso regulatorio. “El regulador del ciberespacio de China dio a conocer también en abril un borrador de medidas para administrar los servicios de inteligencia artificial generativa. Las empresas presentaran evaluaciones de seguridad a las autoridades antes de lanzar ofertas al público”, se anunció desde Pekín a través de su oficina de Economía y Tecnología de la Información.

Por su parte, el organismo de control de privacidad de Francia, CNIL, dijo en abril que estaba investigando varias quejas sobre ChatGPT, después de que el chatbot fuera prohibido temporalmente en Italia por una supuesta violación de las reglas de privacidad.

Reino Unido dijo en marzo de 2024 que planeaba dividir la responsabilidad de regir la inteligencia artificial entre sus reguladores de derechos humanos, salud y seguridad y competencia, en lugar de crear un nuevo organismo exclusivo para el tema.