edición general
21 meneos
87 clics
Crear un compilador de C costaba 2 millones de dólares y tardaba 2 años. Claude Opus 4.6 lo ha hecho en dos semanas por 20.000 dólares

Crear un compilador de C costaba 2 millones de dólares y tardaba 2 años. Claude Opus 4.6 lo ha hecho en dos semanas por 20.000 dólares

En Anthropic lo han llamado Claude's C Compiler (CCC), y han publicado el código, completamente generado por Opus 4.6, en GitHub. El proyecto consta de 100.000 líneas de código Rust que se han generado en dos semanas con un coste de API de 20.000 dólares. Y funciona: con él han compilado un kernel Linux 6.9 funcional en x86, ARM y RISC-V.

| etiquetas: compilador , costaba , millones , dólares , tardaba , claude , opus , semanas
Ahora toca ver si el código objeto que genera es eficiente o una basura infumable.
#1, es muy ineficiente, han compilado un motor de búsqueda SQLite que compilado en gcc tarda 10 segundos en resolver una consulta y el resultado de su compilación más de dos horas. Pero no deja de ser un hito y seguro que mejorará en el futuro como viene pasando de forma sostenida.

No se si somos conscientes de que si fuese capaz de realizar por sí solo un compilador igual o mejor que gcc, la ingeniería del software y la programación habrían muerto esta semana.
#2 yo tengo la.impresion de q si se han gastado 20000 dolares en tokens y 2 semanas de tiempo es pq no han sido capaces de hacer mas. Ha llegado al punto en el q ha colapsado y han sacado lo q tenian pq el siguiente paso era mandarlo todo a la mierda....

Sinceramente, me paeece bastanre mierdoso para los trillones de dolares q estan metiendo....

Y cada vez veo mas posible q haya un burbujon aqui...

Y ojo, q uso MCPs en el curro para automatizar cosas y claude a tuttiplein, pero....
#3 y ese es el problema: que las capacidades son reales y la burbuja es real. La forma en que lo han hecho va a causar más daño que avance.

Al menos para ellos. Con todo, los chinos parece que lo han enfocado un poco más racionalmente.
#3, a mí no me parece ningún merdión que hayan logrado una especie de PoC de un compilador, porque hace un año lograr algo así de forma completamente autónoma era impensable y si la tendencia que ha venido siguiendo la IA los últimos años se mantiene, van a lograr tener algo realmente útil más pronto que tarde. Estamos hablando de un proyecto más complejo que el 99% de proyectos de software en el que intervienen decenas de componentes como el lexer y el parser, el sistema de tipos, la gestion…   » ver todo el comentario
#3 LA IA es como EEUU. ¿Para qué andar si puedo moverme con una silla eléctrica? ¿Para qué comprar flit si tengo una pistola para matar moscas? Tiene cosas increíbles y es un gran avance para muchas cosas pero.. a gastar a gastar que parece gratis!!
#3 Cuanto habría costado hacer ese mismo trabajo con ese mismo resultado en salarios estadounidenses? Esa es la cuestión.
No sé si en este caso ha sido más caro o más barato. Pero no me cabe deuda de que no tardará mucho tiempo en ser más barato (porque lo haga más rápido, o porque en el mismo tiempo lo haga mejor).
#2 tan eficiente que falló al compilar el kernel de linux y es muchísimo mas lento en runtime. Un artículo serio para variar

harshanu.space/en/tech/ccc-vs-gcc/

Sinceramente no me parece ninguna gesta. Compiladores de C los hay a patadas y los tiene en verbatim en su data set.

Como dicen en HN

Pro-LLM coding agents: look! a working compiler built in a few hours by an agent! this is amazing!

Anti-LLM coding agents: it's not a working compiler, though. And it doesn't matter how few…   » ver todo el comentario
#7 Pues sin ser ni PRO ni ANTI, el planteamiento de ANTI es mas solido, realista y racional, y el de PRO es un "confia en mi, ya veras lo que nos traera el futuro" (sin tener nadie ni puta idea de lo que nos traera el futuro)

Pareciera la discusión entre un ingeniero de software (ANTI), y un inversor de bolsa (PRO) xD
#7 #9 pro-gre-sion...
¿Que pendiente definen los puntos?
#10 li-mi-tes
¿ Que sucede cuando bajas por esa pendiente y te topas con un muro ?
#12 La pendiente actualmente no es de bajada. Te repito, sigue los puntos
#14 Da igual en qué dirección se mueva la pendiente, cuando te topas con un muro o con un techo.
Pídele a ChatGPT que te lo explique xD
#9, como dijo Geoffrey Hinton, no sé donde estaremos dentro de 10 años, pero sé donde estábamos hace 10.
#11 Una frase muy bonita y muy potente, que simplifica la historia real de la IA, una tecnología, que a diferencia de otras, viene avanzando a saltos , en ciclos de estancamiento e innovación, y cada vez lo hace con promesas maravillosas, desde los años 60 (en la primera generacion, la de los años 40, fueron mas humildes y honestos)...

Quizás pasan otros 100 años hasta que se cumplan esas promesas, quizás 200. Quizás nunca.
Pero eso, a los grandes creyentes de este dogma, os da igual. ¡El mesías se acerca! ¡Qué se joda el rigor!
Llevais así casi de 60 años.
#13, sinceramente creo que ahora es distinto. Los otros inviernos eran por falta de ideas, datos y capacidad de cómputo. Ahora nos sobran las tres, pero la clave es que hemos descubierto que intentar imitar el cerebro biológico es lo funciona, solo hace falta iterar un poco más a partir de es idea. Y la realidad es que desde que apareció chatGPT no han faltado los profetas del "ya hemos tocado techo" y lo cierto es que las IAs no han parado de mejorar en todos los frentes. Decir que ahora ya sí, me parece más acto de fe que decir que la tendencia se va a mantener.
#15 "sinceramente creo que ahora es distinto."
Frase escuchada en el mundillo de la IA, en los 70, 80, 90... :roll:
Que los verdaderos profetas, gente como tu , llameis "profetas" a los escepticos, tiene guasa...

Deja de proyectar! xD

"hemos descubierto que intentar imitar el cerebro biológico es lo funciona"
:palm: :palm: :palm:
Las LLMs no imitan al cerebro biológico, vamos ni de lejos.
#16, las redes neuronales son las que imitan el cerebro, la arquitectura de los LLMs es circunstancial, muchas otras arquitecturas lo suficientemente grandes y entrenadas con la suficiente cantidad de datos también hubiesen funcionado bien, porque la idea clave es que las redes neuronales, ya cuentan con el cómputo y los datos que no tenían hace 50 años.

Y para nada se puede comparar la situación actual con él pasado. No estamos discutiendo de futuribles, sino de herramientas presentes que…   » ver todo el comentario
#9 Los argumentos PRO IA son que ya hay usos reales para la tecnología. Hay mucha gente que está usando IA para automatizaciones, generar código, generar imágenes para campañas promocionales, etc.

Si la postura ANTI es que la IA es un bluff y que explotará una burbuja y nos olvidaremos, pues no, eso no va a pasar.
Si le pido un basic compatible con Amstrad ejecutable en Windows que pueda usar toda la memoria ram 16 Gb o 32Gb no sería capaz de hacerlo
Crean un compilador que no sirve para nada.

Eso lo hice yo en la carrera también.
Para los que pensáis que es un desarrollo de mierda, recordaros que hace 3 años nos estábamos riendo de como la IA hacia manos con 6 o más dedos
Qué titular más sensacionalista, típico del sitio web este.

¿Qué compilador costó dos millones hacer? Porque la basura que han conseguido los del Claudio este no cuesta dos millones ni de lejos, tal vez hasta sea más barato programarlo un equipo de personas que lo que les costó a ellos.
Por qué se han gastado 20.000 dolares en el API? No hay subscripciones con tarifa plana más baratas? Supongo que los 20.000 dolares los han gastado en GPU

menéame