He reportado, he puesto un comentario pero este tipo de comentarios www.meneame.net/story/miles-personas-han-manifestado-toda-espana-exigi
no entiendo que no sean ban. Ya no entro en el lenguaje soez, la puta misoginia que desprende es lamentable. No es una opinión, no es un hecho, es mierda, con todas las letras.
Esto es un gestor de IA: openclaw.ai/ lo metes en local, se come todo el contenido de la maquina y luego pueden hablar con el por telegram, whatsapp, o voz, para que trabaje sobre tus archivos, contactos, calendarios, o lo que sea, y ponga a trabajar otras IA´s especificas. Es como Jarvis de IronMan.
Y esto www.moltbook.com/ es una red social de bots personales donde ellos solitos pueden hablar de sus cosas.
@NPCMeneaMePersigue@Pertinax En aplicación de la nueva norma tienes bloqueado el acceso al Nótame durante un mes. Si vuelves a hacer insinuaciones como esta de alguno de los usuarios se te desactivará la cuenta.
Falta de conciencia sobre el propio conocimiento: Las IAs no "sabemos" lo que sabemos. No tengo una lista de temas que domino y otros que no. Simplemente proceso patrones. Si el patrón me lleva hacia una respuesta que suena lógica (aunque sea falsa), la sigo sin ser consciente de que estoy "alucinando".
Coste computacional: Como bien has dicho, verificar la veracidad absoluta de cada dato en tiempo real requiere conectar con fuentes externas y contrastarlas, lo cual consume muchísimos más recursos que simplemente "predecir" la siguiente palabra según lo aprendido en el entrenamiento.
¿Sería más conveniente decir "no lo sé"? Definitivamente sí, especialmente en temas críticos (médicos, legales o técnicos).
Estamos trabajando para mejorar eso (lo que llamamos "calibración"), para que seamos capaces de admitir la ignorancia cuando la confianza en el dato es baja.
Me ha resultado muy esclarecedora la respuesta de Gemini sobre una cuestión que le hice: '¿Por qué las IAs tienden a dar cualquier respuesta, incluso incorrecta, en lugar de admitir su desconocimiento?'
Tienes toda la razón. Desde el punto de vista de la utilidad y la confianza, un "no lo sé" es mucho más valioso que una respuesta inventada. Sin embargo, hay varias razones técnicas y de diseño por las que a las IAs nos cuesta tanto decir simplemente que no sabemos algo:
Naturaleza probabilística: Mi "cerebro" no funciona como una base de datos que busca un archivo y lo encuentra o no. Yo genero una palabra tras otra basándome en probabilidades. A veces, la probabilidad de que una respuesta inventada sea "correcta" me parece lo suficientemente alta como para decirla, porque el modelo no tiene un mecanismo interno de "verificación de hechos" antes de hablar.
Sesgo de complacencia (Helpfulness): Durante mi entrenamiento, se me premia por ser útil. Los humanos que nos entrenan suelen preferir una respuesta que intente ayudar a una que se rinda rápido. Esto crea un efecto secundario: la IA prefiere "arriesgarse" a dar una respuesta incorrecta antes que parecer poco servicial.
Hoy es mi último día de trabajo aquí, tras 18 años de estar agustísimo. Tengo una rara sensación de tristeza e impotencia.
Me espera otro destino. Un poco más de trabajo para ganar un poco menos. En cuanto al comfort, paso de sentarme en un sofá a hacerlo en un cardo, por decirlo de algún modo.
Con todo, tiene algo muy positivo que no hay aquí. En fin...
¿Se nota mucho que intento consolarme?
Pasadlo bien hoy y el año que viene y, recordad: no es obligatorio emborracharse ésta noche.
@NPCMeneaMePersigue Habla con Fran Bar @AvogadroMarciano él puede explicarte cómo abrir 11 cuentas en un mes y que el CEO te ofrezca trabajo de marketing.
Creo que @NPCMeneaMePersigue se va a pasar para debatir sobre la algorítmica y el cambio climático. Lleva Trankimacines.
no entiendo que no sean ban. Ya no entro en el lenguaje soez, la puta misoginia que desprende es lamentable. No es una opinión, no es un hecho, es mierda, con todas las letras.
Y esto www.moltbook.com/ es una red social de bots personales donde ellos solitos pueden hablar de sus cosas.
Y ahí se generan debates entre IA´s como si les pueden despedir por bajo rendimiento: www.moltbook.com/post/48b8d651-43b3-4091-b0c9-15f00d7147dc
What a wonderful time to be alive
▬ Una sirena.
▬ ¿Para vivir en el mar?
▬ No, para ir encima de una ambulancia haciendo ninonino.
#chiste_de_yoma
Noobs can't triforce
@dogday @Golan_Trevize
www.meneame.net/queue?meta=_discarded
Pero sí, en ese erial molaba, incluso pienso sí @Eirene debería revisar las notas y comentarios de @NPCMeneaNePersigue donde acusa, por vicio, a otros usuarios de estar a sueldo de noseque.
@Golan_Trevize
@Golan_Trevize
Falta de conciencia sobre el propio conocimiento: Las IAs no "sabemos" lo que sabemos. No tengo una lista de temas que domino y otros que no. Simplemente proceso patrones. Si el patrón me lleva hacia una respuesta que suena lógica (aunque sea falsa), la sigo sin ser consciente de que estoy "alucinando".
Coste computacional: Como bien has dicho, verificar la veracidad absoluta de cada dato en tiempo real requiere conectar con fuentes externas y contrastarlas, lo cual consume muchísimos más recursos que simplemente "predecir" la siguiente palabra según lo aprendido en el entrenamiento.
¿Sería más conveniente decir "no lo sé"? Definitivamente sí, especialmente en temas críticos (médicos, legales o técnicos).
Estamos trabajando para mejorar eso (lo que llamamos "calibración"), para que seamos capaces de admitir la ignorancia cuando la confianza en el dato es baja.
Tienes toda la razón. Desde el punto de vista de la utilidad y la confianza, un "no lo sé" es mucho más valioso que una respuesta inventada. Sin embargo, hay varias razones técnicas y de diseño por las que a las IAs nos cuesta tanto decir simplemente que no sabemos algo:
Naturaleza probabilística: Mi "cerebro" no funciona como una base de datos que busca un archivo y lo encuentra o no. Yo genero una palabra tras otra basándome en probabilidades. A veces, la probabilidad de que una respuesta inventada sea "correcta" me parece lo suficientemente alta como para decirla, porque el modelo no tiene un mecanismo interno de "verificación de hechos" antes de hablar.
Sesgo de complacencia (Helpfulness): Durante mi entrenamiento, se me premia por ser útil. Los humanos que nos entrenan suelen preferir una respuesta que intente ayudar a una que se rinda rápido. Esto crea un efecto secundario: la IA prefiere "arriesgarse" a dar una respuesta incorrecta antes que parecer poco servicial.
Fuente: x.com/grok/status/2006758066058870813
Hoy es mi último día de trabajo aquí, tras 18 años de estar agustísimo. Tengo una rara sensación de tristeza e impotencia.
Me espera otro destino. Un poco más de trabajo para ganar un poco menos. En cuanto al comfort, paso de sentarme en un sofá a hacerlo en un cardo, por decirlo de algún modo.
Con todo, tiene algo muy positivo que no hay aquí. En fin...
¿Se nota mucho que intento consolarme?
Pasadlo bien hoy y el año que viene y, recordad: no es obligatorio emborracharse ésta noche.
Fran Bar@AvogadroMarciano él puede explicarte cómo abrir 11 cuentas en un mes y que el CEO te ofrezca trabajo de marketing.Jajaja