Salesforce se enfrentó a retos técnicos críticos con los modelos lingüísticos durante su aplicación en el mundo real. Por ejemplo, a pesar de proporcionarle instrucciones claras para enviar encuestas de satisfacción, a veces no se enviaban por razones inexplicables. Cuando se les da a los modelos más de ocho instrucciones, comienzan a omitir directivas, lo que supone un grave defecto para las tareas que dependen de la precisión. Si los usuarios hacen preguntas irrelevantes, los agentes de IA pierden rápidamente el enfoque en sus objetivos.
|
etiquetas: ia , salesforce , despidos , automatización , confianza
mbrenndoerfer.com/writing/why-llms-are-not-deterministic
Te lo repito, las matemáticas de los LLMs no son deterministas porque la suma en coma flotante no es asociativa, y como los LLMs se ejecutan en GPUs de forma concurrente los resultados varian entre ejecución y ejecución. Es un hecho irrefutable, que se explica matemáticamente de forma muy simple:
(a + b) + c != a + (b + c)
Con el ejemplo clásico:
a = 10 ^ 16
b = -10 ^ 16
c = 1
(a +… » ver todo el comentario
cc #3 #13 #21
Esto no afecta a los límites, capacidades y potencial que tengan los LLM modernos y cualquier arquitectura que derive se ellos. Eventualemente un modelo… » ver todo el comentario
Los fundamentos matemáticos de los LLMs son deterministas siempre que se calculen de forma secuencial.
Como los LLMs corren en GPUs, y por lo tanto los cálculos no son secuenciales, las matemáticas que los rigen son no deterministas, porque ante un mismo valor de entrada devuelven valores diferentes en cada ejecución.
Y por supuesto que los cálculos se pueden hacer en una CPU, y a mano también se pueden hacer, pero ya te he dicho que es económicamente inviable, y lo ignoras… » ver todo el comentario
cuando una IA resuelva una conjetura matemática, algo que ocurrirá en cuestión de meses
www.meneame.net/story/sam-altman-padre-chatgpt-algun-momento-proximos-
¿Cuantos meses más tenemos que esperar? ¿12 meses? ¿48 meses? ¿1200 meses (100 años)?
Ya me veo venir tu respuesta, pegando un enlace a un medio ultra-sensacionalista y click bati estilo Xataka donde el titular diga que Chat GPT ha… » ver todo el comentario
En todo caso si crees que el ritmo de despliegue e implantación de la IA desde que apareció chatGPT es un fracaso, no vale la pena que sigamos discutiendo porque no nos vamos a poner deacuerdo ni en la hora que es.
Lo que está pasando es lo que dije que pasaría, no sería ninguna moda, no desaparecería, se convertiría en una herramienta imprescindible para la mayoría de la gente y no pararía de mejorar. Todo se está cumpliendo y los que decían que los LLM no iban a dar más de sí a la semana de aparecer chatGPT son los que han hecho verdaderamente el ridículo.
Lo dicho, ¿Cuantos meses más tenemos que esperar para una super IA que resuelva problemas matemáticos por si misma? ¿12? ¿48? ¿1200? En serio lo pregunto, yo doy por hecho que unos meses son 3 o 4 meses, 6 máximo, pero viniendo de ti ya me espero cualquier cosa. Especifica y así nos podremos reir un rato..
Mira, para ser sincero, no se ni quien eres, así que no puedo, saber siquiera qué he discutido contigo y qué defendías tú en particular. De lo que sí estoy seguro es de que siempre he dicho lo mismo y la forma en que la IA se está desplegando es exactamente la forma en que pensé que lo haría y los que decían que esto era hype infundado son los que deberían meterse debajo de las piedras.
Qué hace un código siempre se puede acabar sabiendo leyéndolo (con más esfuerzo que con una IA), el por qué de hizo así no es algo que emane necesariamente del propio código.
Opus 4.5 que te escriba un programa un poco complejo. Mientars lo hace, en la parte derecha te aparecerá un resumen de lo que va haciendo junto a unas flechitas. Si clicas sobre una de las flechitas verás la cadena de razonamiento asociada a aquella acción y entenderás los pasos que lo han llevado a tal o cual decisión. Es más, si te interesa la trazabilidad de por qué está escrita cada línea de código,… » ver todo el comentario
En el inicio del hilo se hablaba de que las IA expliquen código ya existente (o eso he entendido yo), que lo hacen bien, pero no pueden (ni nadie que no lo haya escrito) decir el por qué, solo pueden elucubrar.
En el caso de que la IA escriba el código, como el caso que tú dices, entonces sí puede explicar por qué hace lo que hace, y de hecho ya lo hace habitualmente, también antes de Antigravity.
Claro que esa idea se lleva la palma porque es una idea que sólo está en tu cabeza.
El tema es que no todas las tareas se automatizan bien con IA, por mucho que mejoren los modelos. Hay algunas cosas que requieren la interacción de un humano o la compresión de un humano. Si tu empresa son agentes de IA ¿cual es… » ver todo el comentario
No se en qué mente pensante entra a la cabeza que el negacionismo de que la tecnología nos permite hacer más con menos es buena para la clase trabajadora.
y los llms que tenemos ahora no permiten hacer mas con menos, permiten hacer mierda a cambio de un consumo desorbitado de energia y agua que no nos sobra precisamente.
Yo creo que está hace mucho tiempo adormecida y que la amenaza de la IA tampoco la estaba despertando mucho.
Más miedo me dan las IA como motor de sistemas de control, represión y manipulación de la clase trabajadora, que si ya iba perdiendo con las IA aún más
www.meneame.net/story/salesforce-despide-mitad-plantilla-soporte-4-000
Han vendido la leche antes de saber ordeñar la vaca, que les den.
Son una herramienta. Punto
En todo caso, el impacto en la productividad y el mundo laboral que tiene puede tener esto es brutal, çor mucho que nos podamos hechar la tarde filosofando sobre la naturaleza de la inteligencia.