Tecnología, Internet y juegos
8 meneos
18 clics
Amazon y AWS serán más cautelosos con el código generado por IA [eng]

Amazon y AWS serán más cautelosos con el código generado por IA [eng]

La nota indicaba que las mejores prácticas para estas herramientas siguen en desarrollo; en otras palabras, todavía es pronto. Los sistemas generativos pueden producir código rápidamente, pero carecen de una comprensión completa de las dependencias y el contexto del sistema en grandes entornos de producción. Como resultado, los cambios en el código que parecen correctos de forma aislada pueden causar problemas una vez implementados en producción.

| etiquetas: aws , ia , code review , incidentes
"Amazon tiene la intención de exigir una supervisión humana adicional cuando los desarrolladores utilicen herramientas de IA generativa. Los ingenieros de nivel júnior e intermedio necesitarán la aprobación de ingenieros sénior antes de que se puedan publicar los cambios de código asistidos por IA. El objetivo es garantizar que cada cambio sea revisado por alguien con un conocimiento más profundo del sistema de producción, situando el juicio humano en el centro de los procesos de…   » ver todo el comentario
Años 2000: un ingeniero escribe código. Otro ingeniero lo revisa.
Años 2010: Un ingeniero escribe código. Un programa analizador semántico lo revisa.
Años 2020: Una IA escribe código. Un ingeniero lo revisa. Un mono con una ballesta vigila al ingeniero.
#5, los modelos sí son cada vez más inteligentes y fiables, esto no es algo opinable, sino una realidad contrastable por cualquiera que utilize IA, decir que lo que tenemos hoy es igual que lo que teníamos hace un año es mentira, pero ponerlos en producción en un monstruo como AWS tal vez sea un poco precipitado. Probablemente en 5 años sea la norma, pero no hoy.
Lo que me sorprende es que con los modelos de 2025 que eran mucho peores que los que tenemos hoy, no supervisasen el código, esta medida va desacompasada a la tendencia natural que será tener que supervisar cada vez menos código.
#4
Es decir, cada vez son más conscientes de que no se puede confiar del todo en la IA.
Es decir, la IA cada vez genera más desconfianza, cuando según ellos, cada nueva versión 'mejora' la anterior.
Se incrementa el miedo a HAL, pero no porque cada vez sea más listo y nos pueda hacer más daño, sino porque son más conscientes de su estupidez y sea ésta la que igualmente nos pueda hacer daño.
Paradójico, pero cierto.
Hay que diseñar y hacer muchísimos tests considerando cada caso de uso y evento posible. Pero eso suena a incrementar costos y a mucho trajeado le significa ver su bono (propina) evaporarse.

menéame