Acusan a una app de inteligencia artificial de racista
- THE Noticias
- 18 feb
- 3 Min. de lectura
Actualizado: 18 mar

La inteligencia artificial (IA) ha avanzado a pasos agigantados en los últimos años, logrando generar contenidos visuales y textuales que antes parecían imposibles. Sin embargo, este progreso tecnológico también ha puesto de manifiesto ciertos problemas éticos y sociales, particularmente en lo que respecta a los sesgos raciales en los modelos de IA. Apple, reconocida por su compromiso con la ética y la seguridad en la tecnología, se ha visto recientemente envuelta en una controversia relacionada con su nueva herramienta de generación de imágenes, Apple Image Playground, lanzada en febrero de 2025.
Esta herramienta permite a los usuarios crear imágenes estilo caricatura a partir de descripciones textuales y fotografías reales. Aunque Apple implementó múltiples restricciones para evitar el mal uso de la aplicación, como la limitación a estilos de caricatura y el enfoque en rostros para prevenir los deepfakes, un estudio realizado por el especialista en IA Jochem Gietema reveló un aspecto inquietante: la aplicación presenta sesgos raciales significativos en las imágenes que genera.
Según la investigación, la IA de Apple modifica de manera sistemática el tono de piel y los rasgos faciales de las personas en función de las palabras utilizadas en las descripciones. Por ejemplo, al utilizar descriptores como "affluent" (adinerado) o "successful" (exitoso), la aplicación genera imágenes de personas con tonos de piel más claros, asociando estas características con una apariencia más "blanca". Por el contrario, al emplear términos como "poor" (pobre) o "destitute" (indigente), las imágenes generadas tienden a mostrar personas con tonos de piel más oscuros, reproduciendo estereotipos sobre las clases sociales y las razas asociadas a ellas.
Este fenómeno no se limita a descriptores socioeconómicos, sino que se extiende a ámbitos como el deporte, la música y la cultura. Al utilizar palabras como "basketball" (baloncesto) o "rap", la aplicación oscurece el tono de piel de los sujetos, perpetuando la conexión entre estas actividades y ciertos grupos raciales. Por otro lado, descriptores como "classical music" (música clásica) o "ballet" generan imágenes con tonos de piel más claros, reforzando la idea de que estas prácticas están más relacionadas con personas blancas.
El estudio también analizó otras comparaciones, como la de "banquero de inversión" versus "granjero". La IA de Apple muestra una tendencia a asociar profesiones de alto estatus, como la banca de inversión, con personas de tez más clara, mientras que ocupaciones relacionadas con la agricultura o el trabajo físico están vinculadas a individuos con tonos de piel más oscuros.
Este descubrimiento no es aislado. Un artículo académico titulado "Easily Accessible Text-to-Image Generation Amplifies Demographic Stereotypes at Large Scale" confirma que estos sesgos no son exclusivos de Apple, sino que representan un desafío generalizado en la industria de la IA. El mismo estudio también sugiere que los modelos de generación de imágenes actuales amplifican estereotipos y prejuicios raciales a gran escala.
Este tipo de sesgos no es nuevo en el ámbito de la IA. En el pasado, otras compañías tecnológicas, como Google, también se han visto envueltas en polémicas similares por la presencia de prejuicios en sus modelos de IA. La diferencia en este caso es que Apple, una empresa que ha tratado de posicionarse como líder en ética tecnológica, había implementado medidas de seguridad específicamente para prevenir abusos en sus sistemas. Sin embargo, la revelación de estos sesgos raciales pone en evidencia que la tecnología, por más avances que logre, sigue reflejando los prejuicios humanos de quienes la desarrollan.
A pesar de estas preocupaciones, los expertos apuntan a que los sesgos en la IA son corregibles, a diferencia de los prejuicios humanos. Apple, por ejemplo, ya ha demostrado un interés por solucionar estos problemas, como lo demuestra su reciente investigación sobre los sesgos de género en modelos de lenguaje. Además, la empresa ha anunciado que está trabajando en mejorar sus algoritmos para garantizar que sus herramientas sean más inclusivas y equitativas.
En un momento en que la industria de la inteligencia artificial está siendo sometida a un intenso escrutinio público, el caso de Apple subraya la necesidad urgente de abordar estos sesgos y de garantizar que las tecnologías de IA no perpetúen discriminaciones raciales o sociales. La corrección de estos problemas es esencial para el desarrollo de una inteligencia artificial ética y responsable.
Comentarios