Amazon Prime Video ha retirado su resumen en vídeo de Fallout, generado por IA, después de que los espectadores se dieran cuenta de que contenía errores en partes clave de la historia. El servicio de streaming comenzó a probar los resúmenes en vídeo el mes pasado, y ahora han desaparecido de las series incluidas en la prueba, entre las que se encuentran Fallout, The Rig, Tom Clancy's Jack Ryan, Upload y Bosch. Se supone que esta función utiliza la inteligencia artificial para analizar los puntos clave de la trama de una serie y resumirlos…
|
etiquetas: amazón , ia , resúmenes , fallos , fallout
La IA no es "responsable" de ninguna cagada.
Lo son sus usuarios.
pues siento discrepar. Para prueba este video de un médico de UK que vi ayer mismo, al que la IA de Google acusó de haber sido suspendido y era todo mentira: www.youtube.com/watch?v=_5Djs6fguCU
Ahí no hay ningún usuario responsable, la responsabilidad son de las grandes tech que nos quieren meter sus putas IAs por todos lados y en lugares donde nadie pidió tener IA.
Justo lo que tú dices.
Puede que a veces cometa errores o que el camino no sea el adecuado pero ahí estoy yo para corregir o encaminar.
Uso básicamente copilot o Claude code qué para mi es el mejor.
Mi empresa es pequeña, unos 10 trabajadores, antes siempre nos hacía falta gente, ahora ya no se piensa en contratar, aunque tampoco en despedir.
#25 es una herramienta compleja y puede tener peligro en personas sin experiencia. Pero a su vez te ayuda a hacer un banco de pruebas que no se hubiera hecho de no existir las LLM.
Fíjate los videos generados por IA hace 2-3 años y compara con lo que hacen ahora.
Y ahí ya, comienza la sarta de tontunas:" y si pruebas con este modelo? Ajustaste la temperatura? Incluye un ejemplo en el prompt'
Resultados poco deterministas
Claro, que si te piensas que un LLM lo que hace es limitarase buscar que palabra suele aparecer más veces después de la anterior es normal que digas eso. Es increíble la de tonterías y de cuñadeces que se pueden llegar a leer en Internet.
Todo esto sirve para el entrenamiento. Se consigue que las respuestas entrenadas se acerquen a lo deseado. Las que están cerca de las entrenadas suelen ir cerca, pero las que pillan lejos, puede salir cualquier cosa.
la chains of thoughts,
No influye en la respuesta.
los mecanismos de auto-atención,
Los transformers machacan la información del mismo modo siempre sin mirar nada.
los embedings,
Eso es una interpretación humana de los pesos internos.
el positional encoding...
Eso es un truco del entrenamiento.
Primero convengamos que una salida correcta de un LLM es cuando el output es el esperado. Si es un problema matemático, que llegue a la solución correctamente, si es un problema de programación que escriba código sin errores, si es un problema de conocimientos que responda con los datos correctos.
Todas las cosas que te he comentado están pensadas para que cuando el LLM genere el próximo token, el texto que vaya… » ver todo el comentario
- tu prompt esta mal
- no escogiste el modelo adecuado
- el perro se comio los datos con los que el modelo fue entrenado
Siempre hay una excusa para justificar los pobres resultados que obtengo
Los buenos resultados que han dado con los análisis y generación de textos han lanzado el hype por las nubes.
Está todo el mundo tan subido en la rueda de las mentiras que ya los mismos proveedores te las sueltan a la cara sin vergüenza ninguna.
El otro día me llegaron a decir "con nuestro software repites una acción tres veces mientras te graban en video y a partir de la cuarta si haces algo incorrecto te corregirán y te dirán cómo hacerlo bien. " Y no se les caía la cara de vergüenza.
Hay que acostumbrarnos dejar de ver a los modelos de IA modernos como un software tradional, no son una calculadora que siempre te da el mismo resultado y de forma correcta. Son algo distinto… » ver todo el comentario
Algún jefe se habrá venido arriba por ahorrarse 4 euros.
Y tras unos duros periodos de transición, siempre ha acabado consiguiéndolo. Y aún así, han seguido haciendo falta trabajadores para otro tipo de tareas.
¿Qué quiero decir con esto?
1. Que la IA se va a convertir en herramienta bastante estandarizada. Quien piense que dentro de un año las empresas dirán ¡cáspita! ¡esto no sirva para nada! que se engañe a si mismo si quiere, pero no, la IA no va a desaparecer.
2. Tampoco va a ser el apocalipsis para el empleo que otros auguran que será.
La mayoría de empresas que han intentado sustituir personas por IA (seamos sinceros, ese es el ahorro que esperan las corporaciones) han resultado un completo fiasco.
Pero esos robots con AI que van a encargarse de algunos trabajos, necesitarán a los humanos que les den las instrucciones y como en las fábricas de… » ver todo el comentario
Alguien serio usaría esa herramienta para, con los mismos trabajadores, sacar más producción, mejor calidad o lo que sea para recibir mayores ingresos.
Pero vamos, que el cutre que quiere aumentar los ingresos reduciendo "gastos" en personal sustituyéndolo por IA, no tiene mucha idea sobre gestionar empresas, desconoce el trabajo que se realiza, y además es un poco hijo de puta.