Publicado hace 6 meses por Supercinexin a magazine.sebastianraschka.com

Para concluir un 2023 lleno de acontecimientos en el aprendizaje automático y la investigación de la IA, me complace compartir 10 artículos destacados que he leído este año. Mi enfoque personal se ha centrado más en los modelos de lenguaje grandes, por lo que este año encontrarán un mayor énfasis en los artículos de modelos de lenguaje grande (LLM) que en los artículos de visión por computadora.

Comentarios

thorin

Released in stages throughout 2023, the phi models include phi-1 (1.3B parameters), phi-1.5 (1.3B parameters), and phi-2 (2.7B parameters). The latter, released just two weeks ago, is already said to match or outperform Mistral 7B, despite being only half its size.

lol

Otro teórico que lee benchmarks inutiles en vez de probar los modelos. Y mira que probar modelos hasta 13b es gratis gracias a Google Colab. Porque en LLMs los benchamarks son inutiles y unos cuantos modelos están diseñados con mala fe para superarlos sin que sean realmente efectivos, es mejor probarlos por uno mismo.

Mistral 7B supera en muchas cosas a otros modelos 7B, mientras que Phi 2 aunque es bastante bueno para ser de tamaño 2.7b se le va mucho la pinza. Igual superará a un modelo malo de 7B, pero está muy lejos de Mistral.

Pensé que quizás podría ponerlo en el móvil porque necesitaría unos 4 gigas de ram, pero da mala calidad.

Pero bueno, el artículo no es un mal resumen.