Tecnología, Internet y juegos
175 meneos
747 clics
Amazon endurece sus controles después de que la IA generativa tome decisiones autónomas y genere fallas en sus sistemas

Amazon endurece sus controles después de que la IA generativa tome decisiones autónomas y genere fallas en sus sistemas

La empresa convocó a una reunión obligatoria con ingenieros para revisar el problema y, como medida inmediata, resolvió que los cambios de software hechos con ayuda de IA por perfiles junior o de nivel medio ya no podrán avanzar sin la aprobación de un ingeniero senior. Según material interno citado por el Financial Times, dentro de Amazon existe preocupación por una “tendencia de incidentes” recientes con “high blast radius”. Esta expresión se usa cuando un error no queda aislado y termina impactando una parte grande del sistema.

| etiquetas: amazon web services , ia , fallos , caídas , aws
85 90 1 K 366
85 90 1 K 366
Comentarios destacados:                  
#1 La noticia no dice mucho, pero es que el FT es de pago...

Pero en resumidas cuentas: la única manera de evitar desastres de la IA en producción es... (redoble de tambores) contratar a más ingenieros senior.

xD xD xD xD xD xD xD xD
La noticia no dice mucho, pero es que el FT es de pago...

Pero en resumidas cuentas: la única manera de evitar desastres de la IA en producción es... (redoble de tambores) contratar a más ingenieros senior.

xD xD xD xD xD xD xD xD
#1 La noticia es rara, la IA generativa no "toma decisiones" en todo caso lo haría la agéntica. La generativa te puede ayudar a programa, pero la decisión la toma el programador.
Sensacionalista?¿
#3 Quieres que apostemos lo que ha pasado? Han cogido un modelo LLM con funciones de coding, le han orquestado con algo parecido a N8N o Openclaw, y cuando han querido darse cuenta de que un modelo de generación no puede tomar decisiones de alto nivel, la codebase tenia ya 3 meses de errores acumulados y ya habian despedido a varios miles de ingenieros. Ahora van a tener que buscar bajo una piedra a gente del mismo nivel que quitaron porque alguien les convenció de que ahorrarían billones.
#19 Los de Amazon son tontos
#34 Los de amazon son muchas tribus bajo un mismo estandarte. La que quiere vender IA ha engañado a la que quiere comerciar. Porque entre tribus no comparten botín ni comida con nadie que no sea el jefazo gordo de todas las tribus.

Te suena simplista? Pues así es como funcionan.
#34 Son muy listos, de hecho, a veces se pasan de listos
#19 invent. De la noticia no se extrae que hayan automatizado nada. La noticia habla de Kiro, un IDE con agentes LLM, básicamente el Claude Code o Antigravity de Amazon;

kiro.dev/

Esto no son más IDEs potenciados con IA donde el programador le mete un prompt y el IDE te saca un resultado. Es trabajo del programador revisar el nuevo código, modificar lo necesario y crear un PR. Además lo normal es que al menos 2 programadores revisen y aprueben los PR antes de que se mergeen.

Es…   » ver todo el comentario
#44 Claro, Invent. No llevan metiendo robots en los almacenes desde 2012. No llevan buscando la forma de quitar tantos trabajadores como puedan desde hace dos décadas. No han volcado trailer de dinero tras trailer en poner en marcha Nova y Amazon Bedrock. (Apunte: antigravity es de Google; revisa tus notas)

¿Sabes por que hablan de Kiro en la noticia, y no del producto que esta creando y probando in house Amazon?
¿Te explico el capitalismo detrás de ese detalle?
#50 vaya, cuando destapo tu invent solo se te ocurre empezar a soltar falacias. Cuando un sabio no tiene argumentos rectifica, un terco sigue por la linde y empieza a tirar de falacias.

Primero, que hayan invertido en robots y que quieran quitar trabajadores no es ninguna prueba de que ahora este fallo haya sido causado por una automatización, que algo haya ocurrido en el pasado no implica que esté ocurriendo ahora. Esto es una falacia de apelación a la tradición de manual:…   » ver todo el comentario
#51 Si el fallo es por la IA, si. Se debe a una automatización.

El nivel de revision no es el mismo con 1000 ingenieros que con 10
#55 no, no es ninguna automatización, es vagancia de los desarrolladores.

Amazon proporciona una herramienta para ayudar a los programadores, que es Kiro, un IDE similar a Antigravity, y sus desarrolladores la usan para generarles el código, lo cual es la única parte esperada, pero además después crean los PRs sin revisar el código, y sus compañeros los aprueban de nuevo sin revisarlo o revisándolos de forma deficiente, que es el trabajo humano esperado que no se ha hecho y por lo tanto es el…   » ver todo el comentario
#51 Lo que tu quieras, Cervantes. Le han calzado un git restore --hard de 3 meses. Una publicidad cojonuda para la aplicación IA con la que han estado funcionando. Buena suerte vendiéndola si es la que ellos ofrecen en AWS.
#44 Me temo que si. Es un error humano, pero no de los programadores si no de recursos humanos.
#3 La noticia no es rara. El titular es raro. De hecho incluso explica de donde viene ese "toma decisiones".
#3 Totalmente
#3 "De hecho, Amazon sostuvo que en el caso de AWS el problema estuvo ligado a un rol mal configurado, es decir, a controles mal armados alrededor de la herramienta"

Yo más bien lo entiendo como, haciendo una analogía, que la IA puede saber hacer soldaduras muy bien, pero hacerlo en medio de una gasolinera sin verificar o supervisar que haya medidas de seguridad, puede ser peligroso :roll:
#3 Lo que pasa es que se habrá hecho un lío entre "IA generativa" e "IA agéntica", la cuestión es que lo dejaron todo en manos de la IA (el ingeniero de turno solo le daba al botón de autorizar lo que quiere hacer la IA (sin revisar nada) y se lío parda.
#3 Que los programadores expliquen la pull request como "porque lo ha dicho la IA" ya lo estamos viendo.
#1 Te hago un resumen imaginativo: que van a volver a contratar a ciertas personas en ciertos puestos.
#10 .... si pueden
#1 en efecto, y el problema es, ¿qué ocurrirá cuando no haya programadores seniors si no pueden ser junior antes porque se delega ese tipo de trabajo a la IA? Eso, además, ocurre en muchos otros tipos de trabajo.
#15, pensar que cuando los seniors actuales se jubilen dentro de 20 años, la IA de entonces tendrá los mismos problemas que la de ahora, es de una inocencia que enternece.
#37 tienes razón, puede que no existan los mismos problemas, pero no lo sabemos con certeza o en qué grado. Eso no cambia que no aplique a otros sectores donde la integración real es, es cierto que a día de hoy, dudosa. Veremos también cómo escalan los modelos y si la supervisión no va a ser siempre necesaria, que, ojo, igual no. Por supuesto seguramente me equivoco, pero esa "experiencia humana" para llegar a esos puestos, parece condenada a desaparecer y eso puede que no afecte realmente, o puede que sí. Yo, al menos, albergo mis dudas.
#39, yo creo que debemos ir abriendo foros en los que empezar a debatir que tipo de sociedad vamos a construir cuando todo pueda ser automatizado.
#47 totalmente de acuerdo. Está claro que esta tecnología, aunque se moderará, no va a desaparecer. Y como apuntas, va a cambiar y evolucionar. La sociedad, tal y como la conocemos, necesita comprender las implicaciones y empezar a prepararse. Seguramente ya vamos tarde con estos foros, sobre todo cuando hay tanto hype por un lado y opiniones polarizadas.
#37 Pensar que no necesitará revisión es de una ingenuidad que asusta
#57, dentro de 20 años? Segurísimo que no. Pero bueno, si tu dices que en un año no te has dado cuenta del salto exponencial que han dado los modelos que escriben código, es normal que opines eso.
#59 Si. Muy exponencial.....

A peor en muchos casos
#61, lo ves? Si tienes una visión tan sesgada de la realidad es imposible que tus conclusiones sean mínimamente acertadas e imposible que puedas hacer ninguna clase de extrapolación a futuro mínimamente acertada. Que la IA ha mejorado mucho en una año es una verdad incontestable para cualquiera que la use y tenga un mínimo de objetividad.
#65 Yo la uso, y comete cagadas épicas. Algunas duelen los ojos de absurdas
#68, yo creo que desde diciembre no he escrito una sola línea de código. Pero claro, no debo estar resolviendo problemas fundamentales de la humanidad como todos los que decís que es una porquería.

Lo raro es que las visitas a stack overflow estén bajo mínimos. ¿Por qué será?
#70 Ni idea de tu experiencia. Yo hablo de la mia.

Cuando le pides algo un poco complejo, patina.

Debes ser de los que programaban a base de Stack Oberflow
#75, pues sí, como los cientos de miles de programadores que hace un par de años entraban en stack overflow, me ha resuelto la papeleta muchísimas veces, porque no tuve la suerte de nacer sabiéndolo todo. Desde que uso la IA para programar, no he tenido que buscar ninguna solución en Internet, jamás.
#1 cómo es posible que con la pasta que gana Amazon racaneé con este perfil profesional, que encima manipula el corte de su negocio?
#18 Yo no creo que Amazon racanee con perfiles profesionales. Simplemente que cosas que no habia salvaguardas para problemas que antes no ocurrian. Usando el problema que mencionan...

Ninguna programador junior sin IA hubiera decidido eliminar un entorno completo y programarlo desde cero. Sino hacer cambios incrementales. Y entonces la salvaguarda de Amazon debia ser que un cambio incremental requeria aprobacion de X nivel (pero no llegaba a los senior). Ahora... alguno de los lumbreras junior…   » ver todo el comentario
#24 la noticia no habla de programar un entorno desde cero. Habla de desplegar un entorno completo en lugar de por partes.

El problema es que está escrito por alguien que no tiene ni puta idea de desarrollo en entornos profesionales, y desinforma.
#1 No querían IA? pues toma IA
#1 Ingenieros senior que ademas no van a estar trabajando en resolver problemas complejos, sino principalmente en trabajo de conserje de instituto: a veces vigilancia, a veces sacar la fregona para limpiar la vomitona del pasillo, etc.
Entonces qué pasa? La IA genera veinte mil líneas de código y le dicen al senior que las revise para mañana?
#9 lo que hay que hacer es usar la IA para revisar los PRs :troll:
#9, se quiera o no se quiera las revisiones de la IA se van a basar en tests y no en comprobar línea por línea el código generado por laI IA, esto genera cierta resistencia a quienes al hecho de escribir líneas de código han hecho su modo de vida, pero el mundo cambia y evoluciona, en ningún lado está escrito que porque tú te hayas dedicado toda tu vida a algo ese algo no pueda cambiar radicalmente si aparece una tecnología que lo permite.
#23 se llama el centauro inverso. El humano molesta ya que quieren que la IA revise para .. ir mas rápido. Así que piden a alguien que revise, pero rápido, para tener a quien culpar cuando la cosa se va de madre.

pluralistic.net/2025/12/05/pop-that-bubble/

Da igual lo buena que sea la IA o que uses el lenguaje formal GLADIS V5 o lo que se te ocurra, el unkown unkown pasa con personas y con IA. La diferencia con la IA es que aumenta la entropía mucho más rápido. En vez de 10 PR al día te va a crear 1000. La probabilidad de que algo se ropa es directamente proporcional al numero de cambios
#25, esto es así en el capitalismo desde su origen, el capital, por su propia naturaleza trata de sustituir por máquinas a las personas y dejame decirte que esto ha sido muy positivo para el desarrollo de las fuerzas productivas, por eso el capitalismo ha sido tan exitoso a la hora de desarrollar tecnología. La IA y la robótica son el paso definitivo en este camino hacia la automatización completa del modo de producción y la solución no puede ser rebelarnos contra su desarrollo para que el…   » ver todo el comentario
#23 si los tests los escribe la misma IA no arreglamos nada.
Te programa buenos test o falsos positivos o falsos negativos.
#30, hacer tests es una ínfima parte del trabajo que representaría el escribir todo el código, así que no habrá problema en que lo haga un humano creo yo y a la larga, no veo porque la IA no puede hacer también los tests. Soy profundamente materialista, estoy convencido de que los procesos que se llevan a cabo en nuestro cerebro relacionados con el razonamiento y la inteligencia se basan en reglas lógicas que se pueden modelar matemáticamente, así que no creo que haga falta ningún ingrediente "mágico" para poder replicar lo que haga un humano en este sentido más allá de más ingeniería.
#23 en ese caso será el humano el que diseñe y valide los tests. no puedes sacar al humano del loop, no con esta "IA"
#43, lo que implica el 10% del esfuerzo que requería programar las 20.000 líneas de código, con menos conocimientos técnicos como barrera de entrada.
#23 Quien hace y/o revisa esos tests ?
¿Así que la trabajadora que va a sustituirnos a todos es más bien una becaria? Buena suerte con eso, CEOs del mundo.
#4 Sueño húmedo: ojalá que su ansiedad depredadora para prescindir de humanos cuanto antes lleve a estas megacorporaciones a la bancarrota.
En el mejor de los casos, deuda cognitiva. Aderezado con un susto de estos que se le va la pinza con cierta regularidad.

Lo hablaba con un colega que se flipaba porque se pueden lanzar no se cuántos agentes a la vez. Como si son 100, si después alguien tiene q revisar todo, el cuello de botella está ahí.
#5 Por eso han sacado Claude review, para eliminar el cuello de botella.
Ojo, sólo el cuello de botella. Los problemas seguirán pasando.
"Los programadores van a desapareceeeeeer"

Nostradamusloscojones
#6 Si que van a desaparecer. Que ahora en sus inicios la IA tenga fallos no significa que las empresas vayan a tirar la toalla.

Simplemente algunas compañías tienen demasiada prisa en tratar de implementar un sistema que todavía está en su etapa de desarrollo.
#8 todo sistema tiene fallos y los tendrá.

La cuestión no en si el fallo, que ocurrirá, es las alternativas que tienes para solventarlo, el tiempo que te conllevará, el coste de ello, ...

Asumir que la IA es un ente mágico que ni tiene ni tendrá fallos es vivir en el mundo de la piruleta.
Y tener un sistema del cual nadie sabe nada, solo la IA, es hacer una caja negra, y si alguien tienen que meter mano a eso, por un error de la IA, .... eso será imposible de asumir razonablemente.
#8 Los sistemas actuales de IA generativos NO RAZONAN, por lo que sería necesario un salto cualitativo, no cuantitativo.
#13, por qué un sistema generativo no puede razonar?

Para no perdernos en eltelequias te pongo la definición y razonar de la RAE: Exponer razones para demostrar o explicar (algo).
#21 Hablo del razonamiento inductivo y el deductivo. Y es algo que ha quedado demostrado científicamente con un paper hace meses.

Se necesita una modificación metodológica, un cambio en la ingeniería. El sistema de ML no es más que la aproximación a un método estadístico muy bueno, pero no llega más lejos.
#26, qué paper? Dónde está publicado? Cómo casa esto con las últimas demostraciones que ha logrado la IA en problemas de matemáticas y física teórica que estaban abiertos?
#28 no hace falta ningún paper, se ve claramente en la práctica si alguna vez haz usado un LLM. Los LLMs son fuertes en razonamiento inductivo (pillan patrones) pero les falta capacidad deductiva real, especialmente ante situaciones que se alejan de los datos de entrenamiento.
#38, la realidad es que la IA está resolviendo problemas que estaban abiertos y por lo tanto no había podido ser entrenada con ellos. De todas formas el 100% de los que estamos aquí (y te lo dice alguien que tiene un doctorado) y el 99.999% de los seres humanos no ha resuelto jamás un problema que no hubiese resuelto antes alguna otra persona de una u otra manera, así que aún aceptando la premisa (falsa) de que la IA no puede encontrar soluciones a cosas que no ha visto antes, no es motivo para que no provoque una hecatombe en el mercado laboral.
#41 ¿Y tu por que te quieres cargar el mercado laboral?
¿Qué ganas?
#63, en qué momento decidimos vivir en un sistema que hace que el desarrollar una tecnología que pueda automatizar lo que estamos obligados a hacer para no morirnos de hambre, en lugar de verse como una liberación, se ve como una condena?
#64 Porque los poderosos no van a decir "ah, bueno, pues ahora somos todos iguales y renunciamos a nuestro poder".
Aqui el problema es el orden en el que vamos a caer.
Sólo hay que ver la historia hasta ahora.
#66, y crees que es más realista decir, oye que existe una tecnología que puede reemplazarnos por algo mucho más barato y menos problemático, pero por favor no lo hagáis, tened piedad de nosotros?

Claro que no, ni una cosa ni otra van a pasar, por eso la gente debe organizarse para ejercer el poder suficiente para forzar que la riqueza que se genere no sea capitalizada por unos pocos.
#67 Pero es que lo único que de momento, la IA degenerativa pretende hacer es bajar los sueldos de los programadores. Nada más.
Y siempre hay más opciones. Mira los actores en EEUU, se marcaron una huelga.
#71, y la solución es mentir sobre lo que la IA puede hacer? De verdad crees que esto tiene futuro?
#72 Mentir no.
Tampoco es mentir decir que crea trabajos precarios en el 3rd mundo para llenar sus bases de conocimiento. Que los centros de datos que obliga a crear no son sostenibles a la larga, que es la culpable de la subida del coste del hardware, que será usada por los militares para el mal (como la energía atómica y cualquier cosa que caiga en sus manos, lo se). Y que creo que hay mucha propaganda para que los programadores y otros trabajadores acepten no subirse los sueldos.
De hecho, opino que el hecho de que la implantación vaya más lenta de lo esperado es porque así pueden amenazar trabajadores durante más tiempo.
#74 Si vamos a usar más el cerebro y menos picar código, tenemos que pedir aumento de sueldo.
#28 Joder, llegó aquí a portada. ¿Te lo busco yo o le das a Google uso?
#80, que haya llegado a portada no valida nada, hubo un paper que sacaron unos investigadores de Apple hace un año y medio que no pasó de preprint y ya fue desmontado por muchas personas.

Y te repito, no se que decía aquel paper, pero esto no casa con los problemas abiertos que ha conseguido resolver IAs basadas en LLMs los últimos meses.
#82 1. El artículo fundamentado en datos es ese: "GSM-Symbolic: Understanding the Limitations of Mathematical Reasoning in Large Language Models". Tiene rigor científico formalmente, que es lo mínimo que se despacha.
2. Las críticas al mismo no son formales, sino que atacan directamente a las conclusiones SIN haber realizado estudio alguno de campo y sin estar a la altura de ser papers, ya ni te cuento papers que refutasen las conclusiones.

Así que el statu quo actual, hasta que…   » ver todo el comentario
#13 Y que haya que repetir estas perogrulladas en cada meneo... xD Es alucinante la de fanáticos que corren por aquí.


#21 Es que no falla. Los IA-brós no podéis evitar tirar de fantasía y demostrar que no tenéis ni pajolera idea de cómo funciona el paradigma que llamáis IA.

Y da igual que os lo expliquen en cada meneo. Sencillamente sois fanáticos e impermeables a la realidad. Ignoráis completa y voluntariamente la parte técnica de la cuestión, os alimentáis únicamente de propaganda burbujera, os limitáis a recitar fantasías sin pies ni cabeza y a emitir vaticinios que obviamente llevan ya años sin cumplirse.

Concretamente tú eres de los que insisten mucho en hacer el ridículo.
#8 la realidad es que si no se quieren fallos o menos fallos ya existe algo totalmente comprobado que funciona: la selección natural. Nacen millones de empresas, todas diferentes, las que mejor se adapten, crearán franquicias y sedes, las que tengan errores o no logren adaptarse quiebran, cierran y desaparecen.. simple, ahora sí se ponen tisquismisquis por ver morir a millones de empresas, bueno así es la vida.
#8 Pero a lo mejor tarda más de lo esperado.
Nunca me he fiado de las revoluciones anunciadas por los expertos en marketing.
Es que... confiar a ciegas en la IA viendo lo que contesta a veces, que no se lo tragaría ni un niño de 6 años.. no me lo esperaría de Amazon.. Amazon, que los imperios caen..
Skynet, calienta que sales.
Esto no pasaría con un colegio de ingenieros informáticos...
¿Las fallas no eran en Fachència? ?(
La cosa irá a peor....
Hace un mes pedí asistencia para reparar en garantía 2 echo show. Llame ayer a ver como andaba el asunto... La chica flipando porque me dijo que se habían enviado a devoluciones y yo... pues chica yo seguí las instrucciones, imprimir la etiqueta y enviarlos... Total que me devolvió el dinero de los echo (2 años y medio tenían). IA o humanos.... a saber

Me pasó otra hace más tiempo en la que quería informarme sobre como devolver un producto sanitario (que según su política no se permite) Y me atendió un bot todo el rato, Acabó devolviéndome el dinero indicándome que no hacía falta devolver el producto... Así que nada...
Esto resulta un poco extraño sin papers analizado seriamente lo ocurrido... Pero si dejas la revisión a un sistema orquestador y agentes que pueden cometer errores a 1000 veces la velocidad de un humano desatas el caos en cero coma. Ahora bien ¿Hablamos de agentes que tomaban decisiones autónomas y las implementaban en el código? NI DE COÑA. Traduzco: tiramos a los seniors, metemos a unos Juniors que solo saben programar consultando IA y como somos masters por Harvard en ahorro de recursos nos…   » ver todo el comentario
Existe dos clases de ingenieros de software:

- Los que saben que la IA falla. Falla con un ratio para nada despreciable y que cuando lo hacen, lo hacen por todo lo alto :-D

Y... solo existe una clase de ingenieros de software.

menéame