Hace 5 meses | Por AntwangMilner a ctxt.es
Publicado hace 5 meses por AntwangMilner a ctxt.es

Ana Valdivia es profesora e investigadora en Inteligencia Artificial, Gobierno y Políticas en el Oxford Internet Institute de la Universidad de Oxford. Matemática e informática, ha estudiado la influencia en las sociedades de la recopilación masiva de datos o el uso de algoritmos en las fronteras. Actualmente su trabajo se centra en los impactos medioambientales y sociales de la inteligencia artificial. Colabora con organizaciones como AlgoRace, que analiza los usos de la IA desde una perspectiva antirracista.

Comentarios

sorrillo

#4 Y también para las personas.

Guanarteme

Y no solo racista, ChatGPT tiene un sesgo anglosajón que a mí por lo menos, me apesta bastante.....

u

#5 normal, así cuando llegue el momento sabrá quién es el enemigo al que lanzar las bombas

rogerius

«La inteligencia artificial no es una solución a ningún problema estructural. Se tendría que poner como una herramienta de ayuda ante un sistema público bien financiado y con trabajadores en buenas condiciones.»

Disiento

jajá... toda una investigadora diciendo perogrulladas a cada cual más simple... no me digas...

Pues eso, hace falta ser y estar muy formado para decir perogrulladas ciertas. Por contra para decir perogrulladas falsas ya tenemos a los tierraplanistas, antivacunas, chemtrailetos y unos cuantos partidos políticos por desgracia mayoritarios.

D

jajá... toda una investigadora diciendo perogrulladas a cada cual más simple... no me digas... no se podía de saber!! por cierto, una apreciación: los "datos" son "datos", no son racistas... es LA SELECCIÓN de unos datos y no de otros lo que es racista... de nada, investigadora de oxford!! se llama S-E-S-G-O... y ahora nos ha dado por llamarlo algoritmo. pero es más viejo que el cagar!!

Robus

#2 la selección o más bien la falta de selección es el problema.

si tienes 9 datos en el que pones que las manzanas son roja y uno en que dices que son verdes, la IA creerá que 9 de cada 10 manzanas son rojas cuando no es cierto.

Si le das todos los registros, en los que se habla de naranjas, café, tabaco y manzanas y les preguntas sobre el color de las manzanas te dirá que son rojas… y ese es el problema, que se tienen que seleccionar, y en esa selección es donde puede haber un sesgo, pero puede ser peor que no se seleccione, porque entonces no conoce os la realidad sino la información que existe sobre la realidad.

D

#6 a ver, a no ser que metas en el algoritmo TODOS TODOS TODOS LOS DATOS DEL MUNDO MUNDIAL Y DE TODOS LOS AÑOS Y DE TODOS LOS TIEMPOS selección va a haber S-I-E-M-P-R-E. es decir, sesgo, sea éste o no ideológico, va a haber siempre. el ejemplo que tú pones no es un dato, es una extrapolación de un muestra no representativa

#2 a lo mejor lo que ha querido decir es que es posible que los datos son objetivos, pero que las conclusiones alcanzadas están sesgadas

C

Gracias Ana.

nilien

#_12 Vamos, que no sabes nada del tema en cuestión, pero eso no te ha impedido dejar constancia de ello...

j

Es de las cosas que más hay que explicar de las IAs a la gente.

Los datos de entrenamiento definen su criterio y hay que ir haciendo ajustes toda la vida de la ia. El entrenamiento es constante.

Nunca se va a dejar una ia con entrenamiento abierto al público. Los datos de los usuarios se recopilarán, filtrarán y prepararán para su entrenamiento en entornos controlados donde se harán también cambios en el código para evitar respuestas no deseadas.

Se venderán dispositivos con acceso a versiones en solo lectura que se irán parcheando. Dudo que vaya a haberlos funcionando sin acceso a internet.

k

Esto de los "datos racistas" no suele ser cierto.

Las máquinas no aplican sesgos y los humanos sí.

Se espera de los resultados que vengan con el sesgo de los humanos aplicado, pero las máquinas no hacen eso.

Ambos resultados (humanos versus máquinas) no coinciden. Entonces se le buscan explicaciones raras.