El porcentaje de estadounidenses que utilizan IA para "producir bienes y servicios" en grandes empresas se situó en un modesto 11 % en octubre. No se trata solo de que la cifra sea un poco baja para la tecnología que supuestamente revoluciona el mundo, sino que repentinamente se está moviendo en la dirección equivocada. Todas las encuestas parecen mostrar los mismos resultados: la IA sigue siendo más un juguete experimental en el entorno laboral que un impulsor serio de la productividad. Ejecutivos señalaron un aumento de “fatiga de la IA".
|
etiquetas: ee.uu. , ia , empresas , trabajadores , uso , descenso
Hay tareas para las que es buena, hay tareas para las que no.
Hay momentos en que ya dejas de discutir con ella porque sabes que es inútil y cambias de estrategia
Y hay tareas para las que es buena, pero hay que dedicar tanto tiempo a pastorearla que no merece la pena
Decir que no es una herramienta es tener problemas para seguir el desarrollo tecnológico. A qué te dedicas, si puedo preguntar?
Lo que sí he visto, a colación de este artículo, es un patrón muy común que se resume en:
-Hola, chatgepeté [o el proveedor de su elección]. Dame esta puta mierda cocinada ya para entregar.
-Aquí tienes. ¿Quieres que te...?
-Joder, menuda puta mierda. Esto de la IA… » ver todo el comentario
Lo que apuntas es definitorio: la mayoría de la gente no sabe contextualizar sus propios pensamientos... ya me dirás tú si van a poder hacer que los modelos de lenguaje los contextualizen por ellos...
Lo que me mas alucina es que en la literatura no he encontrado: SEMANTICA.
Sin entender la tecnología no puedes usar la tecnología, porque ya lo decía Arthur C. Clarke: cualquier tecnología lo suficientemente avanzada [si no se entiende cómo funciona] es indistinguible de la magia.
Totalmente. De hecho el RAG está muriendo a manos del retrieval basado en agentes. Parece increíble que algo que era the next big thing en 2023 ya esté obsoleto, pero es la época que nos ha tocado vivir
¿Tu has escuchado a los usuarios pedir cosas al ingeniero o programador, verdad?
No realizan ningún razonamiento. Buscan la palabra más probable que continue un texto dado en base a los documentos que se han tragado antes. Nada más. Así construyen el texto de respuesta.
Si te lo miras con buenos ojos a veces puede parecer que razonan, pero eso es algo que aportas tú al mirarlo, no algo que haga la IA.
Los coches tampoco "andan", pero todos entendemos lo que significa "este coche anda mucho", no?
La cadena de razonamiento que producen los modelos razonadores es una salida producida exactamente igual que la conclusión que producen, o sea hecha por los mismos medios. No tiene nada que ver una cosa con la otra, es decir que la conclusión no depende de la cadena de razonamiento. Esto también hay que ir explicándolo.
Como consecuencia del párrafo anterior, si se lee correctamente, el que produzcan una cadena de razonamiento no quiere decir que razonen nada.
Quisiera también recordar que un LLM no tiene la capacidad de seguir un procedimiento. Ni uno que se le meta en el "contexto" ni uno con el que se le haya entrenado.
Lo único que se pueden entrenar son las respuestas. Es decir que si le preguntas por una respuesta entrenada, los resultados serán generalmente buenos, pero si preguntas otra cosa, es una lotería.
Como muy significativo ese que dice que usar la IA hace que cueste más sacar el trabajo que sin usarla.
Empezó genial, y después se fue a la mierda porque era caro de mantener, y ahora tiene la inteligencia de una butifarra.
Hablo de unos 300€ año. El que comentaba que en breve subirá hasta precios de 150€ mes, ya no tiene ninguna lógica.
Mi experiencia personal. Y siempre leyendo después para revisar/tunear. Pero es operativo.
Creo que son 100 preguntas al día en el normal, 20 informes completos en deep research, ilimitado para todo lo que esté en google workspaces y tal. Dice que a las 100 se para el modelo PRO.