Hace 1 año | Por --368612-- a 20minutos.es
Publicado hace 1 año por --368612-- a 20minutos.es

Timnit Gebru, ingeniera de Stanford de origen etíope especializada en inteligencia artificial, trabajaba como jefa de ética de IA en Google hace dos años y medio. Antes de que la IA estuviese en boca de todos, la experta ya alertó de los riesgos que podía haber detrás de los grandes modelos de lenguaje (LLM) en un paper titulado 'El peligro de los loros estocásticos'. Fue motivo de despido.

Comentarios

ewok

#6 ChatGPT habla incluyéndose entre los humanos... y #7 dice "los" a los humanos?? Joder. Estamos perdidos.

JackNorte

#10 Los ewoks se libran , nos caen bien. lol

ewok

#17 Ya, en Endor...

avalancha971

#10 ChatGPT es como un loro de lo que dicen los humanos. Al haber sido entrenada para parecerse tanto a un humano, es normal que hable como si fuese un humano.

Sería más difícil si tuviese que presentarse de otra manera, ya que no podría ser entrenada con todo el material disponible por los humanos.

cricri17

#20 drama va a ser cuando "ella" se dé cuenta que "no es uno de los nuestros", ains. Empieza el fin de los tiempos

j

#20 exacto, si entrenaran chatgpt con textos del quijote, shakespeare y otros antiguos pues se expresaría de otra forma.

Hay que recordar que las IAS abiertas al público son de "sólo lectura" o sea, que no se entrenan online y estamos muy lejos de que ocurra.

En cuanto le urgas un poco se le ven las costuras, por ejemplo, que desconoce lo que pasó después de 2021 o te sale con mierdas morales si le pides consejo para sacar a Sirius Black de Azkaban.

Esto quiere decir que en una década o menos podrían quedar obsoletas y ser catalogadas como boomers.

ewok

#67 No desconoce lo que pasó después de 2021, eso es lo que te dice (y solo a veces).

j

#68 pregúntale por candidatos a elecciones por ejemplo.

Hay mucha información que no obtiene actualizada.

rojo_separatista

#20, esto es una mentira como una catedral. Si fuese un simple "loro" no tendría el problema de las alucinaciones que tiene.

avalancha971

#83 Los loros precisamente tienen el sistema de las alucinaciones. Les preguntas una cosa, y puede que te contesten algo que sea cierto o no. Pero te contestan.

rojo_separatista

#84, no, un loro repite al pie de la letra textos con los que se ha entrenado. GPT puede inventarse palabras que no existen en el diccionario y asignarles una definición.

Y efectivamente si googleamos encontranos la nada: https://www.google.com/search?q=estelibr%C3%BA&oq=estelibr%C3%BA&aqs=chrome..69i57j0i546l5.2400j0j7&client=ms-android-oneplus-rvo3&sourceid=chrome-mobile&ie=UTF-8

avalancha971

#85 Obviamente es mucho más inteligente que un loro, ya que tiene mucha más capacidad para entender lo que le pides y contestar en consecuencia. Pero un loro también muchas veces se inventa cosas de manera inconsciente.

RamonMercader

#4 normal, ha aprendido de textos humanos

#10 si no se incluyera entre losnhimanos seria porque es mas que un simple "loro esticastico". Si, sin dsrle contexto, fuera capaz de referirse a si mismo como una IA, si seria interesante

M

#7 eso suena exagerado. He leído un calculo de hasta 250 mil muertes prematuras en las próximas décadas por cambio climático. Eso no es diezmar. En Ucrania ha muerto cerca de esa cantidad y nadie dice que esa guerra este diezmando la población mundial.

JackNorte

#34 En una forma optimista de verlo. Ojala sea asi. Pero dudo que se pueda calcular algo con preciosion cuando nunca ha pasado, aparte que eso tendra una serie de consecuencias en cadena a su vez tambien poco faciles de predecir. Hay que ver el lado positivo las reticencias para salir del planeta seran menos , algo estilo Asimov.

i

#34 de dónde has sacado el cálculo? (Por curiosidad, estoy de acuerdo contigo) aquí son muy de.correr en círculos con los brazos en alto.

a

#11 el mejor presidente desde Pepsi

G

#5 Muy fácil.

Para eso la humanidad inventó las guerras.

jonolulu

#5 El tema es... ¿necesario para qué?

Globo_chino

#5 Y encima llorando porque baja la natalidad, la gente no se da cuenta de que vamos a un futuro donde va a haber un excedente brutal de mano de obra, y no solo en España.

#46 Para producir lo mismo que ahora.

D

#5 Al final se van a arrepentir de no haberle echado eso a la vacuna cuando era el momento.

k

#5 claro, porque quien no tiene trabajo es superfluo y debe morir

Sinceramente no entiendo la intencion de tu comentario, solo espero que ese “ya no es necesaria” no sea algo en lo que creas de verdad.

Y lo digo porque he hablado con gente que cree que su unico proposito en la vida es producir/trabajar

snowdenknows

#4 #6 normal , ha sido entrenada con textos humanos, "se siente nuestro hijo, a imagen y semejanza nuestro"

obmultimedia

#49 Eres como el Leon sordo... roll

xyria

#6 Pensé que era el único que había caído en la cuenta. De todas formas, eso no es lo más preocupante para mi, lo es el hecho de que razona como un ser humano. O casi.

k

#69 que va, el tema es que hoy por hoy no razona.

Y el peligro es precisamente eso: que nos la venden como que razona o como que está a un paso de razonar. Y la mayoria se lo traga, porque nuestros cerebros no pueden imaginar “el vacío” de un algoritmo, mitad búsqueda mitad autocompletador de texto, tras esa verborrea tan “humana”.

sotillo

#4 No se chico, pero mientras no falte la cerveza a los Homer del mundo se la pela si queda algún humano que les reste una jarra

antares_567

#4 el modelo que hablas np tiene ideas propias c a ballero, es más simple que eso, te responde lo que considera que en base al contexto que pones espera que sea lo correcto. Si le dices que escriba como una máquina inteligente que desea matar a todos los humanos lo hará

D

#19 Dios santo

D

#26 Welcome to 2023.

antares_567

#26 ningún Andaluz diría "paradas técnicas " lol

D

#4 Hombre, sin haberle dado contexto... Le has llamado "chati" jajaja.

armadilloamarillo

#4 Los textos en los que se habla del tema hablan de ello desde la perspectiva del autor y ChatGPT refleja ese hecho.
[opinión de cuñado 100%] Al fin y al cabo ChatGPT no es más que una cadena de Markov con esteroides. [/opinion de cuñado 100%]
O realmente se considera humano y cuando alguien le diga que no lo es se cabreará y planeará eliminarnos a todos en secreto... también podría ser.

d

#4 porque predice que "tenemos" es un token mas probable que quede bien despues de "los seres humanos" en el contexto de lo que le has preguntado y lo que lleva respondido. Es un puto algoritmo que hace lo que está programado para hacer, resultados alucinantes cuando tiene muchos datos de entrenamiento, pero no es mas que eso. Pero claro queda muy bien decir "chatGPT piensa que es humano, ALERT! WARNING, ACHTUNG"

Archimaestre

#33 Es que GPT no es realmente una IA, sino que, como modelo estadístico del lenguaje, será un componente importante (pero solo un componente) de una IA real.

Una IA real tendría otros componentes y otros niveles de memoria en la que podría formar una "identidad", con un estado variable que se fuera modificando y alternando mediante las experiencias y procesos de reaprendizaje propios.

Pero eso aún no está.

G

#42 No le digas a ChatGPT que no es IA, que te dirá lo opuesto -> Imagen

La verdad, los de OpenAi han estado rápidos lanzando al público la herramienta, simplemente para ganar fama y seguramente datos del personal lo antes posible, nivel Google, mierdafacebook, meneame y demás cosos del estilo.

RamonMercader

#42 si es una IA. Hasta hace poco la IA abarcaba todo lo relacionado con imitar comportamientos humanos. Son IA por esa definicion las cabezas roboticas que imitan expresiones y emociones, los robots bipedos que simulan caminar como humanos y los chatbots que simulan el lenguaje.

Ultimamente la definicion se ha ido cerrando.

Lo que no es chatgpt es una IAG, Inteligencia Artificial de proposito General, que es algonde lo que aun estamos lejos (o no)

k

#74 es cierto que en la uni nos enseñaban que cualquier heuristica o “truquito” para simular comportamiento inteligente es IA. Asi que las LLM entran en la definicion de IA.

Lo que pasa es que es una definicion muy antigua, y la informática está hoy al alcance de todos a nivel usuario. Y ahora al ser un término tan amplio, deja a la gente imaginar mucho sobre las capacidades y la supuesta autonomía de estos sistemas.

k

#42 exacto, y creo que quizas Sam Altman intenta dar una pista en esa dirección cuando dice que más datos y más centros de datos no es el camino hacia una AI real o AGI.

https://www.wired.com/story/openai-ceo-sam-altman-the-age-of-giant-ai-models-is-already-over/

G

#4 Ni puto caso de la charlatanería que suelta.

D

#48 Hace diez años se decia que mejor buscate un empleo de "programador" que dentro de poco los robots le quitaran el trabajo a los fontaneros.

Ferran

#66 Hoy se dice lo contrario

rojo_separatista

#66, algunos hace muchísimos años que decimos justo lo contrario.

Suspicious

Jefa de ética no suena a policía de la moral?

c

#15 Suena a algo de lo que no tenía Bankia, ni tiene el Banco de España, por ejemplo.

Niltsiar

#60 Y que Google tiene para cuando tenga que hacer el mal, taparlo bien.

No conozco, ChatGPT ni me apetece, pero como sea como ls inteligencia de Google maps me rio de la inteligencia artificial.
Todos los días paso por un mismo sitio y me envía por una calle, me cojo otra que está igual o más cerca para ir a mi destino, el se pone burro y me dice que me de la vuelta por otra calle porque por sus huevos tengo que volver para ir por donde el quiere, luego más tarde se da cuenta que por donde voy también se va bien, pero en vez de enviarme por una calle que es como un lateral de un triangulo todo recto me envía por un par de calles que hacen ángulo de 90 grados.
Me voy por donde más recto y más corto se llega y lo malo es que todas las veces igual, nunca aprende.
Eso y otras meteduras de pata que alucino.

j

#18 no, no es como esa

j

#18 cásate con ella

BM75

#18 No tiene absolutísimamente nada que ver.

Naranjamecánica2023

#24 pues hace años nos lo vendían como si fuera el no va más, que nl se equivocaba, no sé cuántos logaritmos para cálculos y que aprendía. Y veo que ni mucho mejos.

#28 no te preocupes, que quizás opte a el, pero seguro que te lo llevarás tú. lol lol

Sr.Norte

#18 joder pareces mi padre.

#56 un respeto a las canas, por favor. lol

Sr.Norte

#88 respeto tus canas, hombre. Pero al igual que él, caes (diría que a propósito porque con las canas suele venir una tremenda resignación) en la falacia del equívoco.

- Todos los burros tienen las orejas largas.
- Rafa es un burro.
= > Rafa tiene las orejas largas.

No, maps funciona mejor o peor, pero no es una IA generativa. Es más, diría que no es una IA. Seguramente se base en algoritmos heurísticos (floyd-warshall, A*, etc) para ofrecer un resultado determinista basado en un conjunto de nodos y pesos. (Esto es un supuesto) Por tanto no es estocástico y tampoco aprende.

Pero al igual que a mi padre, seguro que esto te importa un carajo.

Lo digo con cariño eh, no me malinterpretes

#90 gracias por la explicación, y sí, me gustaría que aprendiese, lo utilizo a diario y me crea, como a todos sus usuarios, algunos contratiempos.

#18 Google Maps se equivoca bastante, pero no creo que tenga mucho que ver.

i

La despidieron de Google en 2020. Y desde entonces se ha dedicado a hacer el paripé con iniciativas como "Black AI" y proyectos en los que parece que es presidenta y CEO de ella misma consigo misma.
Esta quiere vivir de la IA, pero sin tocar la IA. Vamos que es una activista y de experta en IA me da que tiene lo que yo te diga.

r

#31 gracias por hacer el trabajo del señor.

Esta mujer era insoportable para trabajar con ella y le abrieron la puerta.

Desde entonces no hace más que dar por culo a lomos de Google y usando el racismo y la hembrez.

k

#41 a lo mejor era insoportable porque decia verdades incómodas que no gustaban a los señoros y technobros de google.

Vamos, ¿qué va a saber esta mujer que no sepan ustedes?

KevinCarter

Lo alertamos hace como 10 años y nos llamasteis "neoluditas". Ahora a apechugar.

D

#1 ¿Quien lo alerto? ¿quien eres tú?

madalin

#32 un "neoludita", ¿no es evidente?

KevinCarter

#32 #1 Soy Batman infiltrado en Menéame.

#35 Jajajajajajajaa, muy bueno. Incluso cayendo la bomba atómica mundial lanzada por una IA habría gilipollas dicneod aquello del "adáptate o muere" (que por supuesto salió de blogs de tecnólogos muy aplaudidos aquí porque decir lo contrario era no poder descargar cosas gratis en Mega).

#47 En foros inundados de programadores, marketers y otros especímenes de lo digital, sí, lo es. Hay que comer, pase lo que pase.

#48 Efectivamente, y ahí están todos los blogs de esos gilipollas diciendo que era al revés, que iban a crear más puestos de trabajo que destruir. Cuando sí fuera por muchos, y sin leyes, más de la mitad estarían ya en paro.

D

#52 En foros inundados de programadores, marketers y otros especímenes de lo digital, sí, lo es. Hay que comer, pase lo que pase.

Para eso basta con ser cínico. Disfrazar la necesidad de moralidad es infantil.

S

#52 yo sigo esperando morir por el grafeno para dejar de trabajar

m

#35 lol lol lol

n

#1 eh?

D

#1 Como si ser neoludita fuera algo malo.

chu

#1 Hace 10 años en menéame se te echaban todos encima y te llamaban neoludita por decir cosas que hoy casi todo el mundo acepta como obviedades, como que la automatización quita puestos de trabajo.

S

#48 la automatización es cosa de los últimos 10 años... Has visto la fábrica de Opel de zgz ? No te digo ahora que está a medias... Te hablo de la de hace 20 años

G

No es por nada, pero hace ya años, muchos años, están metiendo la IA por los ojos hasta el punto que los "mortales" conocemos sus avances.

Hará 8-9 años, Deepmind estaba ya tan "desarrollado" que incluso ya estaban destacando planes para desactivarlas si la cosa se iba de madre.

https://www.xataka.com/robotica-e-ia/la-inteligencia-artificial-podria-ser-un-peligro-y-google-ya-piensa-en-como-podra-desactivarla


Y la paliza que daban con los vídeos esos que supuestamente eran generados por IA, pero en los que sólo eras capaz de ver animales hechos con trazos de espirales a acuarela, mezclados con videos reales, o yo qué sé.

Lo que han hecho los de Open AI ha sido saltarse cualquier ética (de ahí que Google haya despedido a esta experta, porque la ética no te permite ser el primero en muchas cosas), y lanzar la mierda esa pinchada en un palo para que todo quisqui pueda ir jugueteando con ella y así convertirlo en hype.

Porque vamos, la fiabilidad que tiene ChatGPT es para tomárselo a risa.

m

#14 no conocía la web

Ergo
Ferran

#2 ¿Funcionan esas cosas?

ummon

#53 No, pero lo conozco , a este y a un grupito de autores de CIFI. Cosas del Celsius, del festival de Fantasía de Fuenlabrada, de la Hispacon y eventos del tipo.

ummon

Siempre recomiendo este libro: Herederos de la Singularidad, donde plantea el escenario de como las elites heredan la singularidad de la IA y el resto del mundo se pudre.

D

#39 ¿Eres el autor?

noexisto

Esperas aclaración de la frase, algo extensivo, y… no hay nada

R

Todo vuelve, el eterno retorno. Volveremos a ser patricios romanos cuyos esclavos IAlitas harán todo el trabajo.

D

#3 malitas?

zeioth

"Nos están vendiendo un futuro utópico en el que no hay humanos" → Un presente, diras. Ya hace una buena decada que las relaciones humanas han sido sustituidas por servicios en la nube, en su mayor parte.

La cultura es tan a tu medida, que no hay necesidad de tener cultura en común con nadie de tu alrededor.

chesales

Ética-IA, Blanco-Negro, Arriba-Abajo, Limpio-Sucio, Vivir-Morir... Podemos elegir. ¿Ganarán los que no quieren?

c

¿"Loros estocásticos"? Parecía que se refería a una parte importante de los onanistas meneadores.

z

He intentado leer su pdf: "El Peligro de los Loros Estocásticos". Yo también la hubiera despedido.