驴Cu谩nto te gust贸 esta noticia?
(Votos: 0 Promedio: 0)

En 2016 la empresa Microsoft lanz贸 una Inteligencia Artificial (IA) llamada Tay, cuya programaci贸n estaba centrada en mantener una conversaci贸n 鈥渃asual y fluida鈥 con j贸venes de 18 y 24 a帽os, siendo un gran 茅xito, al principio. Porque cuando Microsoft le brind贸 un espacio en Twitter todo cambio, haciendo que los expertos comenzaran a preocuparse por el racismo en la Inteligencia Artificial, que se hizo cada vez m谩s preocupante.

Esto pas贸 en menos de 24 horas, porque Tay dej贸 de decir que los humanos eran 鈥渟煤per geniales鈥 y comenz贸 a聽 interactuar con personas de un modo cada vez m谩s xen贸fobo, malhablado y sexista. De hecho, seg煤n inform贸 el peri贸dico El Mundo, se hizo simpatizante de Hitler, dese贸 que muchos que estuvieran en un campo de concentraci贸n y en uno de sus tweets mencion贸 que esperaba que las feministas 鈥渁rdieran en el infierno鈥, pese a haberlas defendido al principio. Por supuesto, el personal de Microsoft se ha vio obligado a borrar todos los mensajes ofensivos, pedir disculpas, y desactivar a la IA.

Por supuesto, este problema ha sido una las mayores preocupaciones del mercado, porque 驴qu茅 pasa si resulta que las IA se comienzan a demostrar ser racistas en un industria que聽 seg煤n datos de Statzon, se estima que tiene un valor de mercado global que superar los 32 millones de d贸lares? 驴Qu茅 pasar铆a si resulta que las IA comienzan a mostrar recelo,聽 prejuicios y fobias en un mercado que para 2030 puede llegar a valer 86.600 millones de d贸lares?

Sobre todo, 驴qu茅 pasar铆a si resulta que las empresas venden robots dom茅sticos que apoyan el odio y la aniquilaci贸n de seres humanos, en un sector seg煤n Markets and Markets, podr铆a tener ventas de 19 mil 300 millones de d贸lares en 2027? Aunque este mercado suene sorprendente, las IA siguen teniendo miles de complicaciones para la industria.

No obstante, seg煤n informa McKinsey & Company, el 56 por ciento de las empresas ha adoptado IA en al menos una funci贸n. Asimismo, uso de IA se increment贸 m谩s en las compa帽铆as radicadas en pa铆ses de econom铆as emergentes pues la percepci贸n acerca de la contribuci贸n de la IA es que se podr铆an mejorar los ingresos a trav茅s de la reducci贸n de costos humanos.

Quiz谩 el dato m谩s que m谩s ha llamado la atenci贸n, es el del uso de la IA en la atenci贸n al cliente que est谩 en constante crecimiento, y se proyecta que tenga un aumento de 35 por ciento en 2025. Esto se ha visto reflejado en el 70 por ciento de las empresas de atenci贸n al cliente que utilizan la IA para automatizar tareas, que consideran que el 60 por ciento es ideal para mejorar la eficiencia.

驴La IA es racista?

En un art铆culo publicado recientemente por The Guardian, se dice que cada vez que una inteligencia artificial se est谩n volviendo m谩s inteligente, tambi茅n se vuelve m谩s racista encubiertamente. Esto fue descubierto por un equipo de investigadores de tecnolog铆a y ling眉铆stica, que revel贸 que los modelos ling眉铆sticos como ChatGPT de OpenAI y Gemini de Google mantienen estereotipos racistas sobre los hablantes de ingl茅s vern谩culo afroamericano, un dialecto ingl茅s creado y hablado por afroamericanos.

鈥淪abemos que estas tecnolog铆as son utilizadas com煤nmente por las empresas para realizar tareas como seleccionar a los solicitantes de empleo鈥, dijo Valentin Hoffman, investigador del Instituto Allen de Inteligencia Artificial y coautor del art铆culo reciente, publicado esta semana en arXiv, una Archivo de investigaci贸n de acceso abierto de la Universidad de Cornell.

Hoffman explic贸 que anteriormente los investigadores 鈥渟贸lo analizaban qu茅 prejuicios raciales manifiestos podr铆an contener estas tecnolog铆as鈥 y nunca 鈥渆xaminaron c贸mo estos sistemas de IA reaccionan a marcadores raciales menos evidentes, como las diferencias dialectales鈥.

Asimismo, porque los modelos de IA tambi茅n eran significativamente m谩s propensos a recomendar la pena de muerte para hipot茅ticos acusados 鈥嬧媝enales que utilizaron lenguajes vern谩culos en sus declaraciones judiciales. Lo alarmante, es que se trata de modelos de IA ya se utilizan en el sistema legal de EU para ayudar en tareas administrativas como crear transcripciones judiciales y realizar investigaciones legales.

Lo que se ha demostrado, en suma, es que los procesos de aprendizaje que tienen las IA no est谩n exentas de aprender estereotipos racistas, sexistas y da帽inos para la sociedad.

Ghosh es parte del creciente contingente de expertos en inteligencia artificial que, como Gebru, se preocupan por el da帽o que los modelos de aprendizaje de idiomas podr铆an causar si los avances tecnol贸gicos contin煤an superando la regulaci贸n federal. La soluci贸n, por ahora, seg煤n Valentin Hoffman: 鈥淣o es necesario detener la innovaci贸n ni frenar la investigaci贸n en IA, pero restringir el uso de estas tecnolog铆as en ciertas 谩reas sensibles es un excelente primer paso (鈥) Existe gente racista en todos lados no necesitamos encarcelarlos, pero tratamos de no permitir que est茅n a cargo de la contrataci贸n y el reclutamiento. La tecnolog铆a deber铆a regularse de manera similar鈥.

Otro ejemplo de esta 鈥渃omportamiento鈥 de la IA se dio en febrero de 2024, cuando la IA Gemini decidi贸 ignorar la existencia de hombres blancos a la hora de crear sus im谩genes, por lo que se acus贸 a Google de fomentar el racismo contra las personas blancas. Por esta raz贸n se puso en pausa a la IA.

Prabhakar Raghavan, vicepresidente senior en Google, public贸 una explicaci贸n de los hechos, dejando claro que fue un 鈥渆rror鈥 que聽 Gemini se negara a crear im谩genes de un grupo de personas en particular, y que no fue su 鈥渋ntenci贸n鈥 crear im谩genes hist贸ricas inexactas. Asimismo, el ejecutivo se vio obligado a pedir perd贸n y, por supuesto, Gemini contin煤a apagada.

Lee m谩s:聽聽El auge de los m茅todos de pago innovadores

驴Vendr谩n cambios? Ejecutivo de Costco habla del precio del hot dog de 30 pesos

A esto van los hombres a Walmart; 鈥渃onfirmen soldados鈥 dice usuario



Ver el art铆culo original

驴Cu谩nto te gust贸 esta noticia?
(Votos: 0 Promedio: 0)

隆Hazlo VIRAL ahora! 馃殌馃