Entre las principales críticas a la IA es la eliminación de trabajos que la misma plataforma ha dicho que desaparecerán en menos de 100 años
El desarrollo de la inteligencia artificial (AI) durante este año ha sido abrumador para todo el mundo, hasta sus creadores se han vito en la tarea de empezar a crear comités y organizaciones para limitar su uso, debido a que expertos y gobiernos han mostrado su preocupación por los riesgos que puedan haber en el futuro.
Entre las principales críticas a la IA es la eliminación de trabajos que la misma plataforma ha dicho que desaparecerán en menos de 100 años, ya que pueden ser remplazados por algo mecanizado.
Estos son los mayores riesgos de la IA están:
Falta de transparencia
La falta de transparencia en los sistemas de IA, especialmente en los modelos de aprendizaje profundo que pueden ser complejos y difíciles de interpretar, es un problema acuciante. Esta opacidad oscurece los procesos de toma de decisiones y la lógica subyacente de estas tecnologías.
Cuando las personas no pueden comprender cómo un sistema de IA llega a sus conclusiones, puede generar desconfianza y resistencia a adoptar estas tecnologías.
Dilemas éticos
Inculcar valores morales y éticos a los sistemas de IA, especialmente en contextos de toma de decisiones con consecuencias importantes, supone un reto considerable. Los investigadores y desarrolladores deben dar prioridad a las implicaciones éticas de las tecnologías de IA para evitar impactos sociales negativos.
Riesgos para la seguridad
A medida que las tecnologías de IA se vuelven cada vez más sofisticadas, también aumentan los riesgos de seguridad asociados a su uso y el potencial de uso indebido. Los piratas informáticos y los actores maliciosos pueden aprovechar el poder de la IA para desarrollar ciberataques más avanzados, eludir las medidas de seguridad y explotar las vulnerabilidades de los sistemas.
El auge del armamento autónomo impulsado por IA también suscita preocupación por los peligros de que Estados delincuentes o agentes no estatales utilicen esta tecnología, especialmente si tenemos en cuenta la posible pérdida de control humano en los procesos críticos de toma de decisiones. Para mitigar estos riesgos de seguridad, los gobiernos y las organizaciones deben desarrollar las mejores prácticas para el desarrollo y despliegue seguros de la IA y fomentar la cooperación internacional para establecer normas y reglamentos mundiales que protejan contra las amenazas a la seguridad de la IA.
Concentración de poder
El riesgo de que el desarrollo de la IA esté dominado por un pequeño número de grandes empresas y gobiernos podría exacerbar la desigualdad y limitar la diversidad en las aplicaciones de la IA. Fomentar el desarrollo descentralizado y colaborativo de la IA es clave para evitar una concentración de poder.
Dependencia de la IA
La dependencia excesiva de los sistemas de IA puede conducir a una pérdida de creatividad, capacidad de pensamiento crítico e intuición humana. Lograr un equilibrio entre la toma de decisiones asistida por IA y la aportación humana es vital para preservar nuestras capacidades cognitivas.
Desplazamiento laboral
La automatización impulsada por la IA puede provocar la pérdida de puestos de trabajo en varios sectores, sobre todo entre los trabajadores poco cualificados (aunque hay pruebas de que la IA y otras tecnologías emergentes crearán más puestos de trabajo de los que eliminarán).
A medida que las tecnologías de IA siguen desarrollándose y haciéndose más eficientes, la mano de obra debe adaptarse y adquirir nuevas habilidades para seguir siendo relevante en el cambiante panorama. Esto es especialmente cierto para los trabajadores menos cualificados de la mano de obra actual.
Carrera armamentística de la IA
El riesgo de que los países se enzarcen en una carrera armamentística de la IA podría conducir a un rápido desarrollo de las tecnologías de IA con consecuencias potencialmente perjudiciales.
Recientemente, más de mil investigadores y líderes tecnológicos, entre ellos Steve Wozniak, cofundador de Apple, han instado a los laboratorios de inteligencia a pausar el desarrollo de sistemas avanzados de IA. La carta afirma que las herramientas de IA presentan «profundos riesgos para la sociedad y la humanidad».
EO// Con información de: 800Noticias