Completamente de acuerdo con Chomsky, son estupendas herramientas pero:
- No son capaces de resolver juegos tontos de lógica, ya que no poseen un modelo interno lógico que permita (eso en IA que llamamos meta-aprendizaje) y sin esa parte yo creo que llega a su límite pronto. Y en ese punto es en el que incide Chomsky, él lo comenta por la parte del lenguaje, pero no es solo en ese punto.
- No son de fiar, puesto que su prioridad es sonar razonables, aunque te mientan en la cara (ya he visto compañeros investigadores a los que les han pedido papers que no han escrito porque el ChatGPT se los ha inventado, o inventarse librerías inexistentes para programar). Y eso no me parece correcto, debería de estar más claro ya que habrá usuarios que no lo sepa. Yo espero que creen modelos aprendidos únicamente de fuentes algo más fiables para poder usarlo de forma segura (y a poder ser disponibles de verdad, como Stable Diffusion).
#31 A ver, escribe mucho sobre su campo del saber, acabo de consultar, y tiene 193 documentos en revistas científicas, otra cosa es que los que no trabajemos en esos campos no lo leamos. Sobre su teoría, ¿cómo codificas una teoría sobre el aprendizaje humano del lenguaje? Si sabes hacerlo, avisa.