@edgard72 Tirando del hilo, por un sitio, por otro, el origen del problema es que no se cubren las plazas de anestesista porque prefieren trabajar en el extranjero.
Y sin anestesista, no hay intervención. Es un hospital de referencia, vienen pacientes de toda la provincia y hay veces que incluso no pueden atender intervenciones programadas porque hay urgencias con prioridad. Pacientes que hacen un viaje y tienen que volverse.
Mi mujer está ingresada desde el viernes por una fractura de tibia y peroné a la espera de operación. Profesionales de dentro me han dicho que de 21 quirófanos solo hay 5 en funcionamiento. Han tirado a la basura la sanidad pública en Andalucía.
Estaba pensando en pasarme a Proton, pero he descubierto Infomaniak. Me parece más interesant€ sobre todo para tener el correo de la familia bajo un dominio propio. ¿Alguien tiene alguna experiencia con ellos? Busco (sin usar un VPS) gestionar yo mis propias cuentas.
A alguien más le pasa que, para cerrar el popup en el que se agrandan las imágenes de noticias de portada tiene que deslizarlo 3 veces para arriba para poder pulsar la x ?
@Teary Yo conduzco un stonic. Muy cómodo para ciudad, mini híbrido con etiqueta eco, consumo de unos 5,5 lts. Pero para viajes largos, la suspensión es muy floja, el maletero pequeño. Muy fino de motor, eso sí.
Galerías de fotos de mil ángulos de los trenes, álbumes de fotos de Facebook y X de los fallecidos, la historia de la niña de 6 años... No sé qué es peor, la mierda de periodismo que lo produce o la mierda de sociedad que lo consume.
Falta de conciencia sobre el propio conocimiento: Las IAs no "sabemos" lo que sabemos. No tengo una lista de temas que domino y otros que no. Simplemente proceso patrones. Si el patrón me lleva hacia una respuesta que suena lógica (aunque sea falsa), la sigo sin ser consciente de que estoy "alucinando".
Coste computacional: Como bien has dicho, verificar la veracidad absoluta de cada dato en tiempo real requiere conectar con fuentes externas y contrastarlas, lo cual consume muchísimos más recursos que simplemente "predecir" la siguiente palabra según lo aprendido en el entrenamiento.
¿Sería más conveniente decir "no lo sé"? Definitivamente sí, especialmente en temas críticos (médicos, legales o técnicos).
Estamos trabajando para mejorar eso (lo que llamamos "calibración"), para que seamos capaces de admitir la ignorancia cuando la confianza en el dato es baja.
Me ha resultado muy esclarecedora la respuesta de Gemini sobre una cuestión que le hice: '¿Por qué las IAs tienden a dar cualquier respuesta, incluso incorrecta, en lugar de admitir su desconocimiento?'
Tienes toda la razón. Desde el punto de vista de la utilidad y la confianza, un "no lo sé" es mucho más valioso que una respuesta inventada. Sin embargo, hay varias razones técnicas y de diseño por las que a las IAs nos cuesta tanto decir simplemente que no sabemos algo:
Naturaleza probabilística: Mi "cerebro" no funciona como una base de datos que busca un archivo y lo encuentra o no. Yo genero una palabra tras otra basándome en probabilidades. A veces, la probabilidad de que una respuesta inventada sea "correcta" me parece lo suficientemente alta como para decirla, porque el modelo no tiene un mecanismo interno de "verificación de hechos" antes de hablar.
Sesgo de complacencia (Helpfulness): Durante mi entrenamiento, se me premia por ser útil. Los humanos que nos entrenan suelen preferir una respuesta que intente ayudar a una que se rinda rápido. Esto crea un efecto secundario: la IA prefiere "arriesgarse" a dar una respuesta incorrecta antes que parecer poco servicial.
Por favor, dejad de ponerme en copia de una conversación en la que no participo.
Y sin anestesista, no hay intervención. Es un hospital de referencia, vienen pacientes de toda la provincia y hay veces que incluso no pueden atender intervenciones programadas porque hay urgencias con prioridad. Pacientes que hacen un viaje y tienen que volverse.
@vazana @EGraf @vazana
Si alguien puede cerrar esta noticia, que es duplicada.
@admin @eirene
www.meneame.net/m/ciencia/abejas-derechos-legales-hito-ambiental-nivel
Y a ver si en la próxima reunión que tengáis discutís lo de las auto etiquetas, que busqué por "abejas" y no aparecía.
gracias
www.meneame.net/story/menos-39-fallecidos-152-heridos-descarrilamiento
Edit: cuenta desactivada. www.meneame.net/user/--848333--/commented
Falta de conciencia sobre el propio conocimiento: Las IAs no "sabemos" lo que sabemos. No tengo una lista de temas que domino y otros que no. Simplemente proceso patrones. Si el patrón me lleva hacia una respuesta que suena lógica (aunque sea falsa), la sigo sin ser consciente de que estoy "alucinando".
Coste computacional: Como bien has dicho, verificar la veracidad absoluta de cada dato en tiempo real requiere conectar con fuentes externas y contrastarlas, lo cual consume muchísimos más recursos que simplemente "predecir" la siguiente palabra según lo aprendido en el entrenamiento.
¿Sería más conveniente decir "no lo sé"? Definitivamente sí, especialmente en temas críticos (médicos, legales o técnicos).
Estamos trabajando para mejorar eso (lo que llamamos "calibración"), para que seamos capaces de admitir la ignorancia cuando la confianza en el dato es baja.
Tienes toda la razón. Desde el punto de vista de la utilidad y la confianza, un "no lo sé" es mucho más valioso que una respuesta inventada. Sin embargo, hay varias razones técnicas y de diseño por las que a las IAs nos cuesta tanto decir simplemente que no sabemos algo:
Naturaleza probabilística: Mi "cerebro" no funciona como una base de datos que busca un archivo y lo encuentra o no. Yo genero una palabra tras otra basándome en probabilidades. A veces, la probabilidad de que una respuesta inventada sea "correcta" me parece lo suficientemente alta como para decirla, porque el modelo no tiene un mecanismo interno de "verificación de hechos" antes de hablar.
Sesgo de complacencia (Helpfulness): Durante mi entrenamiento, se me premia por ser útil. Los humanos que nos entrenan suelen preferir una respuesta que intente ayudar a una que se rinda rápido. Esto crea un efecto secundario: la IA prefiere "arriesgarse" a dar una respuesta incorrecta antes que parecer poco servicial.