Hace 3 años | Por JungSpinoza a technologyreview.com
Publicado hace 3 años por JungSpinoza a technologyreview.com

En la noche del miércoles 2 de diciembre, Timnit Gebru, la codirectora del equipo de inteligencia artificial ética de Google, anunció a través de Twitter que la compañía la había expulsado. La investigadora de ética estrella de la compañía destacó los riesgos de los grandes modelos de lenguaje, que son clave para el negocio de Google.

Comentarios

Rorschach_

'... la compañía la había expulsado.', erróneo, se fue ella.

vomisa

Por resumir, que la interconexión facilita la homogeneidad y esta será la de la sociedad más fuerte...
Vaya sorpresa.
¿Y el problema es?

JungSpinoza

Ironicamente traducido con Google Translate:

------
Costos ambientales y financieros
El entrenamiento de grandes modelos de IA consume mucha potencia de procesamiento de computadora y, por lo tanto, mucha electricidad. Gebru y sus coautores se refieren a un artículo de 2019 de Emma Strubell y sus colaboradores sobre las emisiones de carbono y los costos financieros de los grandes modelos lingüísticos. Descubrió que su consumo de energía y huella de carbono se han disparado desde 2017, ya que los modelos se han alimentado cada vez con más datos.

Datos masivos, modelos inescrutables
Los modelos de lenguaje grandes también se entrenan en cantidades de texto que aumentan exponencialmente. Esto significa que los investigadores han intentado recopilar todos los datos que pueden de Internet, por lo que existe el riesgo de que el lenguaje racista, sexista y abusivo termine en los datos de entrenamiento.

Un modelo de inteligencia artificial que enseñe a ver el lenguaje racista como normal es obviamente malo. Sin embargo, los investigadores señalan un par de problemas más sutiles. Uno es que los cambios en el lenguaje juegan un papel importante en el cambio social; los movimientos MeToo y Black Lives Matter, por ejemplo, han tratado de establecer un nuevo vocabulario anti-sexista y anti-racista. Un modelo de IA entrenado en vastas extensiones de Internet no estará en sintonía con los matices de este vocabulario y no producirá ni interpretará el lenguaje de acuerdo con estas nuevas normas culturales.

Tampoco captará el idioma y las normas de países y pueblos que tienen menos acceso a Internet y, por lo tanto, una menor huella lingüística en línea. El resultado es que el lenguaje generado por IA se homogeneizará, reflejando las prácticas de los países y comunidades más ricos.

Además, debido a que los conjuntos de datos de entrenamiento son tan grandes, es difícil auditarlos para verificar estos sesgos incorporados. “Una metodología que se basa en conjuntos de datos demasiado grandes para documentar es, por lo tanto, intrínsecamente riesgosa”, concluyen los investigadores. "Si bien la documentación permite una posible responsabilidad, los [...] datos de capacitación indocumentados perpetúan el daño sin recurso".

Datos masivos, modelos inescrutables
Los modelos de lenguaje grandes también se entrenan en cantidades de texto que aumentan exponencialmente. Esto significa que los investigadores han intentado recopilar todos los datos que pueden de Internet, por lo que existe el riesgo de que el lenguaje racista, sexista y abusivo termine en los datos de entrenamiento.

Un modelo de inteligencia artificial que enseñe a ver el lenguaje racista como normal es obviamente malo. Sin embargo, los investigadores señalan un par de problemas más sutiles. Uno es que los cambios en el lenguaje juegan un papel importante en el cambio social; los movimientos MeToo y Black Lives Matter, por ejemplo, han tratado de establecer un nuevo vocabulario anti-sexista y anti-racista. Un modelo de IA entrenado en vastas extensiones de Internet no estará en sintonía con los matices de este vocabulario y no producirá ni interpretará el lenguaje de acuerdo con estas nuevas normas culturales.

Tampoco captará el idioma y las normas de países y pueblos que tienen menos acceso a Internet y, por lo tanto, una menor huella lingüística en línea. El resultado es que el lenguaje generado por IA se homogeneizará, reflejando las prácticas de los países y comunidades más ricos.

Costos de oportunidad de investigación
Los investigadores resumen el tercer desafío como el riesgo de un "esfuerzo de investigación mal dirigido". Aunque la mayoría de los investigadores de inteligencia artificial reconocen que los grandes modelos de lenguaje en realidad no entienden el lenguaje y son simplemente excelentes para manipularlo, las grandes tecnologías pueden ganar dinero con modelos que manipulan el lenguaje con mayor precisión, por lo que sigue invirtiendo en ellos. “Este esfuerzo de investigación trae consigo un costo de oportunidad”, escriben Gebru y sus colegas. No se dedica tanto esfuerzo a trabajar en modelos de IA que puedan lograr la comprensión o que logren buenos resultados con conjuntos de datos más pequeños y cuidadosamente seleccionados (y por lo tanto también consuman menos energía).

llusions of meaning
The final problem with large language models, the researchers say, is that because they’re so good at mimicking real human language, it’s easy to use them to fool people. There have been a few high-profile cases, such as the college student who churned out AI-generated self-help and productivity advice on a blog, which went viral.

The dangers are obvious: AI models could be used to generate misinformation about an election or the covid-19 pandemic, for instance. They can also go wrong inadvertently when used for machine translation. The researchers bring up an example: In 2017, Facebook mistranslated a Palestinian man’s post, which said “good morning” in Arabic, as “attack them” in Hebrew, leading to his arrest.

Jakeukalane

#1 IIusiones de significado.
El problema final con los grandes modelos de lenguaje, dicen los investigadores, es que son tan buenos en imitar el lenguaje humano real que es fácil usarlos para engañar a la gente. e. Ha habido algunos pocos casos de alto perfil como el de un estudiante de universidad que churneóhizo en masa autoayuda generada por inteligencia artificial en su blog que se volvió viral.

Los peligros son obvios: los modelos de inteligencia artificial pueden ser usados para generar información falsa sobre unas elecciones o sobre la pandemia de covid-19 por ejemplo. También pueden fallar inadvertidamente cuando se utilizan para la traducción automática. Los investigadores dan un ejemplo: en 2017, Facebook tradujo mal la publicación de un hombre palestino, que decía "buenos días" en árabe, como "atacarlos" en hebreo, lo que llevó a su arresto.

Cantro

#1 hay dos párrafos repetidos y el final está en inglés

JungSpinoza

#3 Oooops

i

She also cofounded the Black in AI affinity group

Y aquí dejé de leer. Qué pena tan grande que estas abominaciones resulten aceptables y no la echaran por racista.