Hace 3 años | Por BotBubba a thenextweb.com
Publicado hace 3 años por BotBubba a thenextweb.com

Un trío de investigadores del equipo de Google Brain reveló recientemente la próxima gran novedad en los modelos de lenguaje de IA: un enorme sistema transformador de un billón de parámetros. El siguiente modelo más grande que existe, hasta donde sabemos, es el GPT-3 de OpenAI, que utiliza unos miserables 175 mil millones de parámetros.

Comentarios

PeterDry

Yo me quedé en MOV AX BX

gregoriosamsa

Es increible lo discreta y a la vez rápidamente que esta evolucionando la IA. Para cuando la sociedad se de cuenta de lo que se esta haciendo skynet va a parecer una tostadora. El otro día vi el video de DotsCSV sobre Dall-e y me di cuenta del poco tiempo que queda para un cambio radical del mundo.

D

#7 gran canal. Tengo pendiente el vídeo.

El de gpt-3 es digno de ver

D

Y aún así nunca estará a la altura del gran Zebal...

D

Yo sigo echando de menos a Eliza

Pacman

If
If
If
Else

D

#4 entrenar redes != Programar

Más que if else es multiplicación y resta de matrices

Pacman

#6 if, else, elif

Y muchos datos

D

"While these incredible AI models exist at the cutting-edge of machine learning technology, it’s important to remember that they’re essentially just performing parlor tricks. These systems don’t understand language, they’re just fine-tuned to make it look like they do."

Tras ver algunos vídeos empieza a ser discutible está afirmación. Para poder responder preguntas de programación acaba aprendiendo a programar. Aprende contexto... Evidentemente no sabe en el mismo sentido que un ser humano porque no ha generalizado igual de bien pero empieza a dar respeto