Y el viejo chocho al que dan la paguita extra para organizar a la banda, amparando al chulomierda. Está claro, ahí el que no es un genocida es un clon del borracho marionetero de la choni.
Bien denunciado. La máxima responsable de sanidad en Madrid es nuestra no querida asesina de ancianos, que se debe haber quedado con ganas de más muertes y sobretodo de una habitación más en su ático, que necesita que se la financien. Total 7291 o 7300 ya le da igual, no tiene conciencia ninguna la psicópata.
#1 una plaga originada por los cazadores por acabar con su depredador natural , por soltar jabalíes en zonas donde no había y por importar jabalíes de Europa del Este porque son más grandes que los de aquí . Y para rematar quieren reducir el número de jabalíes cazandolos, cuando se ha demostrado que lo que consiguen ye que entren antes en celo y tengan más crias en cada camada . Tú eres consecuencia de qué ?
Me arriesgo a opinar que este señor, viendo como se las gastan los políticos españoles y que el tema estaba siendo un completo desastre, guardó esta información para cubrirse las espaldas, no fuera a ser que la culpa fuera suya sin comerlo ni beberlo. A ese nivel hay que llegar con esta gentuza.
#81 Por supuesto. Si mañana el salario mínimo fuera 100€ entonces incluso ganando 200 ya no estarías en el mínimo y las estadísticas dirían que casi nadie en España cobra el salario mínimo. Pero eso no significaría que las cosas estén bien.
Ya, ya, ya... Pero la mitad de los nuevos empleos son etarras y comunistas que se apuntan a trabajar solo para beneficiar al gobierno bolivarianao sanchista.
#15 En su cabeza debia sonar fenomenal. Lo que no entiende #11 es que el SMI lo decide el gobierno pero el salario mas habitual es cosa de sus amiwitos los empresarios.
A la caverna meneante le pasa que cuando gobierna la izquierda.... se vuelven comunistas y pretenden que el gobierno no hace su trabajo si no interviene los salarios.
#22Cuando se acaban los argumentos y queda clara la estulticia se suele recurrir a eso.
Dijo la cuenta para saltarse baneos que no ha sido capaz de argumentar absolutamente nada y solo se dedica a defender a maltratadores y asesinos de mujeres.
Algo que contarnos sobre tu vida real relacionado con el tema de la violencia contra la mujer?
La verdad que si alguna mujer le hace un Leonidas al mensajero de Jerjes a este tiparraco no le diría ni un pero, es más, se llevaría el mayor de mis aplausos.
#11 Gracias por poner blanco sobre negro que los empresarios españoles son una banda de garrapatas que solo pagan un poco más de lo mínimo exigido para poder sobrevivir
Estaría bien que cuando hagáis estos artículos indiquéis el prompt y/o consulta realizada y el modelo usado, de esa manera sabremos si se está forzando a la IA a decir ciertas cosas.
El aprendizaje por refuerzo es muy lento (www.youtube.com/watch?v=L_4BPjLBF4E), más aun el supervisado, que necesita a un humano. La mayor parte del entrenamiento de los llm se ha realizado con todo lo que se pudiera convertir en texto encontrado en internet.
A partir de ese entrenamiento lo que se puede añadir, y que se pueda considerar aprendizaje por refuerzo son las respuestas generadas por el modelo, en las que los usuarios hayan pulsado el icono del "pulgar arriba" para validar la respuesta. Sería interesante conocer la estadística de cuantos usuarios realmente pulsan el botón.
Realmente lo que ha supuesto una mejora en los modelos llm han sido las capas de atención: arxiv.org/html/1706.03762v7
Te agradezco el post y el intento, pero no me convence.
Precisamente porque cuanto más la he usado, más me he dado cuenta donde y como se rompe. Con modelos locales se engancha en bucle frecuentemente. Las técnicas del chain of thought y eso son muy bonitas sí pero se le va la cabeza y a la que hay una exigencia implicita de razonamiento falla estrepitosamente. Esta es la base: falla muy gravemente al necesitar pensamiento. Es excelente generando tremendo lorem ipsum con colorines, y eso tiene su uso, pero no confiaría a un LLM nada que tuviera impacto.
El LLM no conoce el mundo. No tiene un modelo interno de él. No tiene una imaginación. Por eso no es una IA, le falta la I. Puedes buscar ser literal si quieres en el sentido de qué signifique "predecir" o "simple predictor estadístico" si te quieres perder en tecnicismos. Pero "predictor de texto" en el sentido de que pretende averiguar cual es el token que viene a continuación en base al texto anterior, sí, es un predictor de texto. Tal cual.
Es bastante obvio para mi que las distintas plataformas han intentado añadir con el tiempo post filtros para añadir layers de censura, evitar las repeticiones, lo que sea: pero el problema de fondo sigue ahí. Si puede inferrir del contexto algo parecido a lo que continuará que pueda ser correcto, a veces lo hace bien. Dale algo novel y no sabe.
Bien por España. Orgullo
2024 finalizó en 32.630 € frente a 26.620 de 2019, un 22% superior.
datosmacro.expansion.com/pib/espana
A la caverna meneante le pasa que cuando gobierna la izquierda.... se vuelven comunistas y pretenden que el gobierno no hace su trabajo si no interviene los salarios.
Dijo la cuenta para saltarse baneos que no ha sido capaz de argumentar absolutamente nada y solo se dedica a defender a maltratadores y asesinos de mujeres.
Algo que contarnos sobre tu vida real relacionado con el tema de la violencia contra la mujer?
El aprendizaje por refuerzo es muy lento (www.youtube.com/watch?v=L_4BPjLBF4E), más aun el supervisado, que necesita a un humano. La mayor parte del entrenamiento de los llm se ha realizado con todo lo que se pudiera convertir en texto encontrado en internet.
A partir de ese entrenamiento lo que se puede añadir, y que se pueda considerar aprendizaje por refuerzo son las respuestas generadas por el modelo, en las que los usuarios hayan pulsado el icono del "pulgar arriba" para validar la respuesta. Sería interesante conocer la estadística de cuantos usuarios realmente pulsan el botón.
Realmente lo que ha supuesto una mejora en los modelos llm han sido las capas de atención: arxiv.org/html/1706.03762v7
Luego el "razonamiento", que no es más que hacer peticiones al… » ver todo el comentario
Precisamente porque cuanto más la he usado, más me he dado cuenta donde y como se rompe. Con modelos locales se engancha en bucle frecuentemente. Las técnicas del chain of thought y eso son muy bonitas sí pero se le va la cabeza y a la que hay una exigencia implicita de razonamiento falla estrepitosamente. Esta es la base: falla muy gravemente al necesitar pensamiento. Es excelente generando tremendo lorem ipsum con colorines, y eso tiene su uso, pero no confiaría a un LLM nada que tuviera impacto.
El LLM no conoce el mundo. No tiene un modelo interno de él. No tiene una imaginación. Por eso no es una IA, le falta la I. Puedes buscar ser literal si quieres en el sentido de qué signifique "predecir" o "simple predictor estadístico" si te quieres perder en tecnicismos. Pero "predictor de texto" en el sentido de que pretende averiguar cual es el token que viene a continuación en base al texto anterior, sí, es un predictor de texto. Tal cual.
Es bastante obvio para mi que las distintas plataformas han intentado añadir con el tiempo post filtros para añadir layers de censura, evitar las repeticiones, lo que sea: pero el problema de fondo sigue ahí. Si puede inferrir del contexto algo parecido a lo que continuará que pueda ser correcto, a veces lo hace bien. Dale algo novel y no sabe.