edición general
pip

pip

Debianita, estoy decrépito pero aún razono. Linuxero recalcitrante, empecé con la Slackware 3.1 que regalaba "PC Actual" en 1997, y hasta hoy. Profesionalmente desarrollo software de bajo nivel (drivers y esas cosas en C o C++), y en mi tiempo libre, sofware libre.

En menéame desde octubre de 2007

9,77 Karma
1.740 Ranking
42 Enviadas
6 Publicadas
18K Comentarios
17 Notas
  1. #19 yo solo te cuento mi experiencia con integración de LLMs via API oficial, en este caso era Gemini vía VertexAI pero podría ser cualquier otra. En la sección de las instrucciones principales del prompt se ponen todos los requisitos, e hice la prueba exactamente con el mismo prompt que teníamos en producción, poniendo y quitando una línea con una instrucción negativa, y el resultado fue que había un porcentaje de error apreciablemente inferior quitando esa instrucción. Al final lo que hicimos fue modificarla, no eliminarla, con una modificación que nos daba mejores resultados. Lo que ocurre es que al final un LLM es pura estadística con vectores de distancia entre tokens, por lo que los resultados pueden ser completamente diferentes con cambios muy pequeños y sutiles, y en este caso comprobé por mi mismo que hay ocasiones en las que es mejor omitir una instrucción que ponerla en negativo, pues de la segunda forma ya se añade al contexto y la puede "malinterpretar".
  2. #2 #7 una cosa parecida que me ha ocurrido trabajando en integraciones con LLMs es que al ponerle una instrucción negativa en el prompt, por ejemplo: "No aceptes X", aceptaba más veces lo que le decía en X que si no se lo ponía. Y esto lo validé con un test A/B separando los datos en dos grupos iguales, de varias miles de muestras cada uno, en un prompt con la instrucción negativa y en el otro sin ella, y lo confirmé. Y tiene todo el sentido del mundo, porque estás poniendo en el contexto los tokens relativos a X, y por lo tanto es algo que va a afectar a la salida, por el contrario si no se lo pones la mayoría de veces simplemente lo ignora.

    Mi conclusión con el tiempo que llevo trabajando con IA a nivel empresarial, que ya son más de 2 años, es que los LLMs para automatización de grandes proyectos en entornos corporativos no son fiables, y fallan más que una escopeta de feria.Todas las empresas que están planeando automatizar procesos para despedir gente,…   » ver todo el comentario
  3. #1 mencionan una cosa interesante en el artículo, tú le puedes decir al principio “ni de coña hagas esto”, pero si se le acaba el contexto y tiene que resumir lo que lleva de momento para que pueda seguir trabajando… pues lo mismo no entra en el resumen esa instrucción inicial.

    Vamos, que además de alucinar es como si tuvieran demencia senil. Cada día más útiles.
  4. Soy informático, y diría que estoy razonablemente informado de las capacidades de la IA. Y no veo ni por asomo que pueda hacer mi trabajo, porque no se puede documentar, procedimentar ni automatizar de ninguna manera. No hay dos días iguales. La IA puede ayudarme extrayendo información de textos largos, resumiendo reuniones o ayudando a redactar, pero no mucho más.
  5. ¿Empezando por los CEOs? :troll: :troll:
  6. Por otra parte: Sebastian Mallaby, economista experto en IA: "ChatGPT quebrará en los próximos 18 meses"
    www.meneame.net/story/sebastian-mallaby-economista-experto-ia-chatgpt-

    Supongo que ni una cosa ni la otra, pero a ver quien se queda más cerca.
  7. Detrás de chatgpt hay un indio buscando en la wikipedia xD xD
  8. Es fantástica.
  9. Parece que Lilly está ganando peso y volumen de mercado.

    ¡Tachaaaan!
    Ya me iba
  10. Jodida distopía.
  11. #7 Si te has comido una actualizacion chunga, desinstalarlo no te va a valer de nada.
  12. Seguro que ha dejado de tomar café.
  13. Lo que cambia la sintaxis el significado de las cosas: no diseñado por IA sino diseñado CON IA. Un humano listo y preparado usa una herramienta, no es la IA sustituyendo al humano. Coño ya.
  14. Artículo escrito por IA. Huele a leguas.
  15. Es decir, al final, IA significa esto:  media
  16. #24 Lo de aparcar es uno de esos trucos que les van metiendo, pero la conducción autónoma es otro problema mucho más difícil. No parece que se pueda resolver acumulando trucos.

    Con los LLM es más de lo mismo. Lo único que saben hacer es memorizar (y generalizar) respuestas que se les entrenan. Cuantas más cosas se les entrenen, más "inteligentes" parecen. Lo parecen pero no lo son. Hay quién alucina (en el sentido humano) mucho con eso y lo llama "avance", pero sólo son más datos. No hay ningún avance tecnológico.

    Para resolver la conducción autónoma hacen falta ordenadores más potentes. Cuando se disponga de eso, se procesarán los datos que ahora no se puede (el agujero es espectacular) y por fin montarán un motor de inferencia que tomará las decisiones como es debido, sin aleatoriedad, que vivirá de los datos que le proporcionen diversas redes neuronales que evaluarán la situación.
  17. Transcripción del vídeo:

    Cometemos tres errores: Ee primero es infravalorar la cantidad de información que producimos cada día; el segundo es despreciar el valor de esa información y el tercero es pensar que nuestro principal problema es una agencia distante y superpoderosa que se llama NSA. Y es verdad que la NSA tiene el mayor acceso, los mejores recursos, las mejores herramientas, pero no les hace falta nada de eso para espiarnos a nosotros, porque nosotros lo tenemos todo ahí. Vivimos en casas de cristal.
    Este es Malte Spitz, miembro del Partido Verde alemán, y en 2009, Malte le pidió a su compañía telefónica que le mandara todos los datos que tenía sobre él. Y la Deutsche Telekom, que era su compañía, le dijo que no. Dos demandas más tarde, le mandaron un CD con un Excel de 30 832 líneas, como La Guerra y la Paz pero tres veces. Este documento interminable comprende desde septiembre de 2009 hasta febrero de 2010; tiene exactamente seis meses. Y no es casual, tiene…   » ver todo el comentario
  18. Devolverle que?  media
  19. #5 con el ritmo que lleva lo raro es que no lo hayas hecho aún xD
  20. #3 UTF-8 es un parche muy bien diseñado. :troll:
  21. Gry #2 Gry *
    El markdown es estupendo para tomar notas o escribir documentación, las propias limitaciones del lenguaje te obligan a mantener las cosas simples.

    Es solo una manera de dar un poco de formato a documentos de texto plano y que sigan siendo legibles como texto plano.

    Si empiezas a buscar la forma de poner imágenes envueltas por el texto o de dar formato a tablas es que deberías estar utilizando otra cosa.
  22. #9 Lo que es tremendo es el nivel de pereza de los jueces (y de bastantes de mis compañeros)
  23. Deberían expulsar de la carrera a esos jueces
  24. pero que cojones
  25. #24 las series actuales, especialmente las de Netflix , hacen en 8 capítulos lo que se hacía en una película de de dos horas y peor explicado
« anterior123458

menéame