Tecnología, Internet y juegos
14 meneos
66 clics
Crear un compilador de C costaba 2 millones de dólares y tardaba 2 años. Claude Opus 4.6 lo ha hecho en dos semanas por 20.000 dólares

Crear un compilador de C costaba 2 millones de dólares y tardaba 2 años. Claude Opus 4.6 lo ha hecho en dos semanas por 20.000 dólares

En Anthropic lo han llamado Claude's C Compiler (CCC), y han publicado el código, completamente generado por Opus 4.6, en GitHub. El proyecto consta de 100.000 líneas de código Rust que se han generado en dos semanas con un coste de API de 20.000 dólares. Y funciona: con él han compilado un kernel Linux 6.9 funcional en x86, ARM y RISC-V.

| etiquetas: compilador , costaba , millones , dólares , tardaba , claude , opus , semanas
12 2 0 K 209
12 2 0 K 209
Ahora toca ver si el código objeto que genera es eficiente o una basura infumable.
#1, es muy ineficiente, han compilado un motor de búsqueda SQLite que compilado en gcc tarda 10 segundos en resolver una consulta y el resultado de su compilación más de dos horas. Pero no deja de ser un hito y seguro que mejorará en el futuro como viene pasando de forma sostenida.

No se si somos conscientes de que si fuese capaz de realizar por sí solo un compilador igual o mejor que gcc, la ingeniería del software y la programación habrían muerto esta semana.
#2 yo tengo la.impresion de q si se han gastado 20000 dolares en tokens y 2 semanas de tiempo es pq no han sido capaces de hacer mas. Ha llegado al punto en el q ha colapsado y han sacado lo q tenian pq el siguiente paso era mandarlo todo a la mierda....

Sinceramente, me paeece bastanre mierdoso para los trillones de dolares q estan metiendo....

Y cada vez veo mas posible q haya un burbujon aqui...

Y ojo, q uso MCPs en el curro para automatizar cosas y claude a tuttiplein, pero....
#3 y ese es el problema: que las capacidades son reales y la burbuja es real. La forma en que lo han hecho va a causar más daño que avance.

Al menos para ellos. Con todo, los chinos parece que lo han enfocado un poco más racionalmente.
#3, a mí no me parece ningún merdión que hayan logrado una especie de PoC de un compilador, porque hace un año lograr algo así de forma completamente autónoma era impensable y si la tendencia que ha venido siguiendo la IA los últimos años se mantiene, van a lograr tener algo realmente útil más pronto que tarde. Estamos hablando de un proyecto más complejo que el 99% de proyectos de software en el que intervienen decenas de componentes como el lexer y el parser, el sistema de tipos, la gestion…   » ver todo el comentario
#2 tan eficiente que falló al compilar el kernel de linux y es muchísimo mas lento en runtime. Un artículo serio para variar

harshanu.space/en/tech/ccc-vs-gcc/

Sinceramente no me parece ninguna gesta. Compiladores de C los hay a patadas y los tiene en verbatim en su data set.

Como dicen en HN

Pro-LLM coding agents: look! a working compiler built in a few hours by an agent! this is amazing!

Anti-LLM coding agents: it's not a working compiler, though. And it doesn't matter how few…   » ver todo el comentario
#7 Pues sin ser ni PRO ni ANTI, el planteamiento de ANTI es mas solido, realista y racional, y el de PRO es un "confia en mi, ya veras lo que nos traera el futuro" (sin tener nadie ni puta idea de lo que nos traera el futuro)

Pareciera la discusión entre un ingeniero de software (ANTI), y un inversor de bolsa (PRO) xD
#7 #9 pro-gre-sion...
¿Que pendiente definen los puntos?
#10 li-mi-tes
¿ Que sucede cuando bajas por esa pendiente y te topas con un muro ?
#12 La pendiente actualmente no es de bajada. Te repito, sigue los puntos
#14 Da igual en qué dirección se mueva la pendiente, cuando te topas con un muro o con un techo.
Pídele a ChatGPT que te lo explique xD
#9, como dijo Geoffrey Hinton, no sé donde estaremos dentro de 10 años, pero sé donde estábamos hace 10.
#11 Una frase muy bonita y muy potente, que simplifica la historia real de la IA, una tecnología, que a diferencia de otras, viene avanzando a saltos , en ciclos de estancamiento e innovación, y cada vez lo hace con promesas maravillosas, desde los años 60 (en la primera generacion, la de los años 40, fueron mas humildes y honestos)...

Quizás pasan otros 100 años hasta que se cumplan esas promesas, quizás 200. Quizás nunca.
Pero eso, a los grandes creyentes de este dogma, os da igual. ¡El mesías se acerca! ¡Qué se joda el rigor!
Llevais así casi de 60 años.
#13, sinceramente creo que ahora es distinto. Los otros inviernos eran por falta de ideas, datos y capacidad de cómputo. Ahora nos sobran las tres, pero la clave es que hemos descubierto que intentar imitar el cerebro biológico es lo funciona, solo hace falta iterar un poco más a partir de es idea. Y la realidad es que desde que apareció chatGPT no han faltado los profetas del "ya hemos tocado techo" y lo cierto es que las IAs no han parado de mejorar en todos los frentes. Decir que ahora ya sí, me parece más acto de fe que decir que la tendencia se va a mantener.
#15 "sinceramente creo que ahora es distinto."
Frase escuchada en el mundillo de la IA, en los 70, 80, 90... :roll:
Que los verdaderos profetas, gente como tu , llameis "profetas" a los escepticos, tiene guasa...

Deja de proyectar! xD

"hemos descubierto que intentar imitar el cerebro biológico es lo funciona"
:palm: :palm: :palm:
Las LLMs no imitan al cerebro biológico, vamos ni de lejos.
Si le pido un basic compatible con Amstrad ejecutable en Windows que pueda usar toda la memoria ram 16 Gb o 32Gb no sería capaz de hacerlo
Crean un compilador que no sirve para nada.

Eso lo hice yo en la carrera también.

menéame