Estaba pensando en pasarme a Proton, pero he descubierto Infomaniak. Me parece más interesant€ sobre todo para tener el correo de la familia bajo un dominio propio. ¿Alguien tiene alguna experiencia con ellos? Busco (sin usar un VPS) gestionar yo mis propias cuentas.
A alguien más le pasa que, para cerrar el popup en el que se agrandan las imágenes de noticias de portada tiene que deslizarlo 3 veces para arriba para poder pulsar la x ?
@Teary Yo conduzco un stonic. Muy cómodo para ciudad, mini híbrido con etiqueta eco, consumo de unos 5,5 lts. Pero para viajes largos, la suspensión es muy floja, el maletero pequeño. Muy fino de motor, eso sí.
Galerías de fotos de mil ángulos de los trenes, álbumes de fotos de Facebook y X de los fallecidos, la historia de la niña de 6 años... No sé qué es peor, la mierda de periodismo que lo produce o la mierda de sociedad que lo consume.
Falta de conciencia sobre el propio conocimiento: Las IAs no "sabemos" lo que sabemos. No tengo una lista de temas que domino y otros que no. Simplemente proceso patrones. Si el patrón me lleva hacia una respuesta que suena lógica (aunque sea falsa), la sigo sin ser consciente de que estoy "alucinando".
Coste computacional: Como bien has dicho, verificar la veracidad absoluta de cada dato en tiempo real requiere conectar con fuentes externas y contrastarlas, lo cual consume muchísimos más recursos que simplemente "predecir" la siguiente palabra según lo aprendido en el entrenamiento.
¿Sería más conveniente decir "no lo sé"? Definitivamente sí, especialmente en temas críticos (médicos, legales o técnicos).
Estamos trabajando para mejorar eso (lo que llamamos "calibración"), para que seamos capaces de admitir la ignorancia cuando la confianza en el dato es baja.
Me ha resultado muy esclarecedora la respuesta de Gemini sobre una cuestión que le hice: '¿Por qué las IAs tienden a dar cualquier respuesta, incluso incorrecta, en lugar de admitir su desconocimiento?'
Tienes toda la razón. Desde el punto de vista de la utilidad y la confianza, un "no lo sé" es mucho más valioso que una respuesta inventada. Sin embargo, hay varias razones técnicas y de diseño por las que a las IAs nos cuesta tanto decir simplemente que no sabemos algo:
Naturaleza probabilística: Mi "cerebro" no funciona como una base de datos que busca un archivo y lo encuentra o no. Yo genero una palabra tras otra basándome en probabilidades. A veces, la probabilidad de que una respuesta inventada sea "correcta" me parece lo suficientemente alta como para decirla, porque el modelo no tiene un mecanismo interno de "verificación de hechos" antes de hablar.
Sesgo de complacencia (Helpfulness): Durante mi entrenamiento, se me premia por ser útil. Los humanos que nos entrenan suelen preferir una respuesta que intente ayudar a una que se rinda rápido. Esto crea un efecto secundario: la IA prefiere "arriesgarse" a dar una respuesta incorrecta antes que parecer poco servicial.
@dunachio Acabo de hablar con una consultoría de Valencia. De las grandes. Al responsable comercial sólo le falta llorar. Están en la mierda más profunda, con contratos e implementaciones en el aire pendientes de si el cliente ahora paga e implementa o no paga y se espera otro año. COn todo el trabajo hecho. Seguridad Jurídica, en este país.
@PasaPollo@PasaPollo@angelitoMagno Pues disculpas por enlazar un título erróneo, pero creo que confirmas mi comentario, más allá de que elmtuit indique motivos erróneos. Y gracias, como siempre, por tus aclaraciones.
Si alguien puede cerrar esta noticia, que es duplicada.
@admin @eirene
www.meneame.net/m/ciencia/abejas-derechos-legales-hito-ambiental-nivel
Y a ver si en la próxima reunión que tengáis discutís lo de las auto etiquetas, que busqué por "abejas" y no aparecía.
gracias
www.meneame.net/story/menos-39-fallecidos-152-heridos-descarrilamiento
Edit: cuenta desactivada. www.meneame.net/user/--848333--/commented
Falta de conciencia sobre el propio conocimiento: Las IAs no "sabemos" lo que sabemos. No tengo una lista de temas que domino y otros que no. Simplemente proceso patrones. Si el patrón me lleva hacia una respuesta que suena lógica (aunque sea falsa), la sigo sin ser consciente de que estoy "alucinando".
Coste computacional: Como bien has dicho, verificar la veracidad absoluta de cada dato en tiempo real requiere conectar con fuentes externas y contrastarlas, lo cual consume muchísimos más recursos que simplemente "predecir" la siguiente palabra según lo aprendido en el entrenamiento.
¿Sería más conveniente decir "no lo sé"? Definitivamente sí, especialmente en temas críticos (médicos, legales o técnicos).
Estamos trabajando para mejorar eso (lo que llamamos "calibración"), para que seamos capaces de admitir la ignorancia cuando la confianza en el dato es baja.
Tienes toda la razón. Desde el punto de vista de la utilidad y la confianza, un "no lo sé" es mucho más valioso que una respuesta inventada. Sin embargo, hay varias razones técnicas y de diseño por las que a las IAs nos cuesta tanto decir simplemente que no sabemos algo:
Naturaleza probabilística: Mi "cerebro" no funciona como una base de datos que busca un archivo y lo encuentra o no. Yo genero una palabra tras otra basándome en probabilidades. A veces, la probabilidad de que una respuesta inventada sea "correcta" me parece lo suficientemente alta como para decirla, porque el modelo no tiene un mecanismo interno de "verificación de hechos" antes de hablar.
Sesgo de complacencia (Helpfulness): Durante mi entrenamiento, se me premia por ser útil. Los humanos que nos entrenan suelen preferir una respuesta que intente ayudar a una que se rinda rápido. Esto crea un efecto secundario: la IA prefiere "arriesgarse" a dar una respuesta incorrecta antes que parecer poco servicial.