Hasta ahora, la mayoría de las mediciones sobre qué empleos están amenazados por la IA se basaban en evaluaciones teóricas. Usando datos de uso de Claude cruzados con la base O*NET y las estimaciones teóricas de Eloundou et al., los autores miden qué tareas se están realizando efectivamente con IA en contextos profesionales, ponderando más los usos vía API que los de asistencia directa al usuario. El resultado es revelador: la cobertura real es una fracción de la teóricamente posible.
|
etiquetas: ia , empleo , laboral
En los pocos casos que ha habido, como call centers, tocó hacer marcha atrás.
La IA es muy imperfecta. Comete errores graves constantemente (alucinaciones, lo llaman). No es posible corregir este comportamiento.
Detallo. Las alucinaciones provienen de los textos de los que bebe la IA. La IA no sabe distinguir entre los importantes y los no importantes. No distingue lo relevante de lo accesorio. No distingue lo comprobado de las bromas en reddit. No… » ver todo el comentario
www.youtube.com/watch?v=k5w04RHCFpE
Los modelos de IA… » ver todo el comentario
En consecuencia, no puede tampoco programar.
Por lo tanto es una máquina de copiar el código con el que se le haya entrenado. Para cosas muy sencillas, es muy probable que conozca la solución correcta. Para cosas complicadas, lo que hará es juntar trozos de otras cosas. El resultado no será usable. Requiere de intervención humana para filtrar, reintentar, reordenar, e incluso… » ver todo el comentario
1. Yo puedo examinar un coche de los de gasolina y deducir de mi análisi que eso no va a poder navegar por el mar. No necesito hacer ninguna clase de prueba.
Con los transformers es lo mismo. Miras su funcionamiento y de ahí deduces que no será capaz de razonar, simplemente porque no tiene lo necesario para ello.
2. Es muy fácil auto engañarse mirando un texto generado por una máquina y tratarlo como si lo hubiera escrito una persona. Es un sesgo… » ver todo el comentario
Y eso no va de autoengaño, se trata de demostrar con argumentos y contra-argumentos dónde está la verdad. Si a final de año una IA ha resuelto un solo problema de Frointer Math, no se puede seguir afirmando que se limitan a copiar sin sentido, aprenden patrones que les permiten razonar y llegar a nuevas conclusiones expandiendo la frontera del conocimiento.
Un LLM no tiene ni la menor idea de qué color es el cielo. Sólo sabe que "azul" suele seguir a las palabras "el color del cielo es el". No sabe qué es el cielo. No sabé qué es un color.
UN LLM no sabe contar. No sabe hacer matemáticas, absolutamente nada. No puede resolver ningún problema con ningún enunciado. Lo que sí que se puede hacer es trampa y entrenar al LLM para que se sepa una respuesta a un… » ver todo el comentario
Entonces si tu hipótesis es que debido a su… » ver todo el comentario
… » ver todo el comentario
Sí que importa si lo sabe o no, porque por mucho que se haya aprendido la frase "de qué color es el ceilo", si se le pregunta con otras palabras o desde otro punto de vista, se perderá totalmente.
Igual no en empleo neto total, pero muchas compañías están recolocando o echando administrativos.
En la mía 30 este mes.