S

#78 Sí, soy de lo peorcito. Tampoco te has dignado a responderme si conoces alguna alternativa, y esta vez te lo pregunto en serio.

S

#74 Vaya no más largo. ¿Y recomiendas a alguien con la cabeza en su sitio que relacione las nuevas tecnologías y cómo las usan gobiernos y empresas privadas para sus cositas?

D

#76 Eres uno de esos pesados que se responde a si mismo, ¿verdad?. La respuesta correcta es "No voy a comprar Fast Food conspiranoico, pero está más que leída"

S

#78 Sí, soy de lo peorcito. Tampoco te has dignado a responderme si conoces alguna alternativa, y esta vez te lo pregunto en serio.

S

#60 ¿Y te has acercado a alguno? ¿O simplemente por los títulos ya te asustas?

D

#70 Hay una cosa que se llama criterio, que se forma leyendo libros buenos, de gente con la cabeza en su sitio. Luego ya no te gusta el fast food de iluminados. Y sí, se la lee fácilmente en su blog, La Petite Claudine y demás cátedras.

http://www.escolar.net/petite/

S

#74 Vaya no más largo. ¿Y recomiendas a alguien con la cabeza en su sitio que relacione las nuevas tecnologías y cómo las usan gobiernos y empresas privadas para sus cositas?

D

#76 Eres uno de esos pesados que se responde a si mismo, ¿verdad?. La respuesta correcta es "No voy a comprar Fast Food conspiranoico, pero está más que leída"

S

#78 Sí, soy de lo peorcito. Tampoco te has dignado a responderme si conoces alguna alternativa, y esta vez te lo pregunto en serio.

S

Que los ultramillonarios estén deseando de largarse de este planeta debería de dar alguna pista, y gente aquí defendiéndolos. Os creéis que vais a ser los elegidos para ir a vivir a Marte (cuando se pueda vivir, que ya ha anunciado que los primeros pringados palmarán, ahí si podréis ir) o a las estaciones espaciales que quieren crear en órbita para vivir.

L

#65 Puede que como esclavos...

S

#10 Como cada vez que se da un % siempre falta algún dato, en este caso sería ver la sensibilidad y especificidad de la prueba.
https://es.wikipedia.org/wiki/Sensibilidad_y_especificidad
En el caso que nos ocupa, que preferimos, ¿un falso negativo o un falso positivo? Si tenemos un falso negativo, significa que ese individuo tiene la enfermedad y no la detectamos, ¡MEC! Cagada, necesitamos una sensibilidad alta para evitar esto. Por contra, si tenemos un falso positivo, en este caso, a unas malas te llevas un susto del copón y pruebas para seguirte la evolución; una putada, pero preferible a lo de antes. Por tanto en este caso la especificidad nos da un poco igual aunque obviamente queremos controlarla también.

Respondiéndote directamente, lo cierto es que nunca se va a saber algo con un 100% de seguridad. Entonces al final es: tenemos este grupo de 100 personas que con estas características han desarrollado la enfermedad (80) y otras tantas que no (20). Si alguien viene con esas características, la probabilidad de desarrollar la enfermedad pues sería del 80%. Lo que digo hay que cogerlo a grandes rasgos porque obviamente hay mucha más ciencia y más detalles sutiles de fondo, pero a grosso modo sería eso.

S

#12 Tienes un fallo de concepto bastante grande con lo de algoritmo. Parece algo estás metido en el tema, pero te falta revisar conceptos, más profundidad y sobre todo algo de humildad, chaval.

Primero, las redes neuronales son algoritmos, te pongas como te pongas. De hecho, cualquier cosa que estés ejecutando en el PC es un algoritmo, que como bien has dicho, es una receta, una serie de instrucciones. Que luego de un resultado que para un humano no sea interpretable no lo convierte en algo que no es un algoritmo.

Luego, no se trata de ir neurona por neurona u operación por operación para entender como funciona por ejemplo una red neuronal. Si nos vamos a la convolucionales, con cada capa de profundida vas viendo que en cada paso va pasando de los objectos abstractos de la imagen a los detalles más finos. Con esto te puede valer o hacerte una idea de como trabaja la red y poder cambiar la arquitectura. Los "recientes" transformers, puedes ir viendo como cada "head" se va centrando en verbos, pronombres, etc... y como en una frase se le va dando más o menos valor a una palabra u otra dependiendo del contexto.
Aparte, esta frase "pero la complejidad es tal que ni vas a ver los errores, ni vas a saber cómo corregirlos una vez los encuentres" vuelve a carecer de sentido en el contexto de una red neuronal. La red o hace lo que quieres o no lo hace, no por eso es un error. Simplemente o te faltan datos, o entrenas de forma que no toca u otra de las mil cosas posibles, pero no es un error entendido como error de programación.


meneandro

#16 "Primero, las redes neuronales son algoritmos, te pongas como te pongas."
¿He negado yo la mayor? hablamos de dos cosas distintas, me temo. Tú de la arquitectura, yo de la red entrenada o camino de ser entrenada para corregir un problema o sesgo en los resultados. Modificar los pesos, no las relaciones.

He dicho: depura una red neuronal de una neurona. Como algoritmo que es, podrás. Ahora, depura una complicada, con varias capas y muchas neuronas por capa. Agárrate los machos. ¿Tiene sentido siquiera intentarlo? ¿qué pretendes conseguir? ¿vas a ver un desequilibrio en alguno de los pesos? ¿alguna de las interconexiones te sobra? ¿cómo coño depuras una red neuronal? ¿tiene sentido siquiera intentarlo?.

En resumen: una red neuronal se comporta como una puta caja negra. NO se puede depurar porque es IMPRACTICABLE. Y el que te confundes eres tú. La teoría es muy bonita, pero la práctica es la que dicta, y lo que dicta es que lo que tú dices es modificar la arquitectura, no cambiar la red neuronal una vez entrenada. Así que no, no se comporta como un algoritmo (donde puedes cambiarlo y ver y prever los resultados, incluso sobre la marcha si el lenguaje de programación de turno es dinámico e interpretado), tú realizas el proceso de entrenamiento de nuevo completo.


"Con esto te puede valer o hacerte una idea de como trabaja la red y poder cambiar la arquitectura."
Tenemos conocimientos generales de qué hace mejores unas arquitecturas de redes de otras, cuales se adaptan mejor a ciertas cosas que otras. Pero que me digas que por la cara puedes coger una red neuronal y mejorar su arquitectura así al vuelo sin un análisis exahustivo es una afirmación cuanto menos muy valiente. Y eso no es depurar, no es corregir un problema para un caso que te ha salido, es modelar un sistema completo que se adapte mejor a unos requisitos dados. Seguramente lo haces todos los días...

"Aparte, esta frase "pero la complejidad es tal que ni vas a ver los errores, ni vas a saber cómo corregirlos una vez los encuentres" vuelve a carecer de sentido en el contexto de una red neuronal. La red o hace lo que quieres o no lo hace, no por eso es un error"
Me das la razón sin darte cuenta. Aquí la única forma de mejorar una red neuronal es cambiarla y volver a entrenar todo de nuevo. No puedes modificar algo entrenado sobre la marcha, no puedes depurarlo, sólo puedes hacer cambios a la arquitectura y comprobar si es mejor o peor que la anterior.

" Simplemente o te faltan datos, o entrenas de forma que no toca u otra de las mil cosas posibles, pero no es un error entendido como error de programación."
Ahora resulta que NO es como un algoritmo ¿eh? quién lo iba a decir...

S

#6 Estás hablando de las redes neuronales y se está avanzando bastante en ese aspecto. Y no todo en IA son redes neuronales. Tienes árboles de decisión y otros algoritmos similares que son perfectamente interpretables. Y te repito, la frase "no funcionan como un algoritmo" carece de sentido. Que sea interpretable o que sea más o menos determinista no tiene nada que ver con que sea o se comporte como un algoritmo.

#8 Efecticamente, ya hay métodos que permiten una explicabilidad del modelo que no dependen del algoritmo que se ha usado y que funcionan igual de bien con redes neuronales que con árboles de decisión, como son los valores SHAP.

#5 Es que si a un algoritmo sólo le muestras una parte de la realidad, sólo será capaz de intentar predecir esa realidad. Los algoritmos basados en aprendizaje por refuerzo precisamente buscan que el sesgo no venga dado por los datos, aunque puede venir por cómo has generado el entorno donde aprende y las acciones que puede llevar a cabo. Pero sí, es complicado no introducir sesgos de forma no consciente.

meneandro

#8 A ver, un elegir entre A o B es depurable, una red neuronal de una única neurona es depurable, etc.

Un árbol de decisión complejo, una red neuronal multicapa de cientos de neuronas, etc. NO son depurables. Los huamnos no tenemos capacidad de proceso para esas complejidades o si prefieres verlo así, es nada práctico siquiera ponerse a intentarlo. Sabemos cómo funcionan, si, podemos hacer una traza si queremos, pero la complejidad es tal que ni vas a ver los errores, ni vas a saber cómo corregirlos una vez los encuentres. Son cosas no lineales, con múltiples interdependencias, escalan muy mal... ¿dices que es como un algoritmo, cuando se comportan como sistemas complejos, como putas cajas negras? suerte con eso, chaval.

Un algoritmo es una receta. Basta seguir los pasos y ver cuándo falla más pronto o más tarde. Es lineal, no tiene dependencias, encuentras el punto exacto donde las cosas van mal y sabes por qué de manera lógica y directa.

S

#12 Tienes un fallo de concepto bastante grande con lo de algoritmo. Parece algo estás metido en el tema, pero te falta revisar conceptos, más profundidad y sobre todo algo de humildad, chaval.

Primero, las redes neuronales son algoritmos, te pongas como te pongas. De hecho, cualquier cosa que estés ejecutando en el PC es un algoritmo, que como bien has dicho, es una receta, una serie de instrucciones. Que luego de un resultado que para un humano no sea interpretable no lo convierte en algo que no es un algoritmo.

Luego, no se trata de ir neurona por neurona u operación por operación para entender como funciona por ejemplo una red neuronal. Si nos vamos a la convolucionales, con cada capa de profundida vas viendo que en cada paso va pasando de los objectos abstractos de la imagen a los detalles más finos. Con esto te puede valer o hacerte una idea de como trabaja la red y poder cambiar la arquitectura. Los "recientes" transformers, puedes ir viendo como cada "head" se va centrando en verbos, pronombres, etc... y como en una frase se le va dando más o menos valor a una palabra u otra dependiendo del contexto.
Aparte, esta frase "pero la complejidad es tal que ni vas a ver los errores, ni vas a saber cómo corregirlos una vez los encuentres" vuelve a carecer de sentido en el contexto de una red neuronal. La red o hace lo que quieres o no lo hace, no por eso es un error. Simplemente o te faltan datos, o entrenas de forma que no toca u otra de las mil cosas posibles, pero no es un error entendido como error de programación.


meneandro

#16 "Primero, las redes neuronales son algoritmos, te pongas como te pongas."
¿He negado yo la mayor? hablamos de dos cosas distintas, me temo. Tú de la arquitectura, yo de la red entrenada o camino de ser entrenada para corregir un problema o sesgo en los resultados. Modificar los pesos, no las relaciones.

He dicho: depura una red neuronal de una neurona. Como algoritmo que es, podrás. Ahora, depura una complicada, con varias capas y muchas neuronas por capa. Agárrate los machos. ¿Tiene sentido siquiera intentarlo? ¿qué pretendes conseguir? ¿vas a ver un desequilibrio en alguno de los pesos? ¿alguna de las interconexiones te sobra? ¿cómo coño depuras una red neuronal? ¿tiene sentido siquiera intentarlo?.

En resumen: una red neuronal se comporta como una puta caja negra. NO se puede depurar porque es IMPRACTICABLE. Y el que te confundes eres tú. La teoría es muy bonita, pero la práctica es la que dicta, y lo que dicta es que lo que tú dices es modificar la arquitectura, no cambiar la red neuronal una vez entrenada. Así que no, no se comporta como un algoritmo (donde puedes cambiarlo y ver y prever los resultados, incluso sobre la marcha si el lenguaje de programación de turno es dinámico e interpretado), tú realizas el proceso de entrenamiento de nuevo completo.


"Con esto te puede valer o hacerte una idea de como trabaja la red y poder cambiar la arquitectura."
Tenemos conocimientos generales de qué hace mejores unas arquitecturas de redes de otras, cuales se adaptan mejor a ciertas cosas que otras. Pero que me digas que por la cara puedes coger una red neuronal y mejorar su arquitectura así al vuelo sin un análisis exahustivo es una afirmación cuanto menos muy valiente. Y eso no es depurar, no es corregir un problema para un caso que te ha salido, es modelar un sistema completo que se adapte mejor a unos requisitos dados. Seguramente lo haces todos los días...

"Aparte, esta frase "pero la complejidad es tal que ni vas a ver los errores, ni vas a saber cómo corregirlos una vez los encuentres" vuelve a carecer de sentido en el contexto de una red neuronal. La red o hace lo que quieres o no lo hace, no por eso es un error"
Me das la razón sin darte cuenta. Aquí la única forma de mejorar una red neuronal es cambiarla y volver a entrenar todo de nuevo. No puedes modificar algo entrenado sobre la marcha, no puedes depurarlo, sólo puedes hacer cambios a la arquitectura y comprobar si es mejor o peor que la anterior.

" Simplemente o te faltan datos, o entrenas de forma que no toca u otra de las mil cosas posibles, pero no es un error entendido como error de programación."
Ahora resulta que NO es como un algoritmo ¿eh? quién lo iba a decir...

S

#5 De ahí mi primera frase. No le quitaba razón con lo de los datos sesgados. Mi comentario va más encaminado a la última parte dónde desmiente la frase hecha por uno de los investigadores cuándo en la cita que puse demuestra claramente que no sabe del todo bien lo que habla.

S

#1 Me encanta cuándo vais de expertos y se nota que habéis oído hablar del tema de pasada. "Las IA no funcionan como un algoritmo". Ya, claro...

aritzg

#4 #1 no va del todo desencaminado. La IA es un algoritmo que se rige por unos datos y pesos definidos en el proceso de aprendizaje previo. Y sí... si los datos con la que la has entrenado son sesgados, los resultados pueden tener sesgos.

aquí unos ejemplos

https://www.eldiario.es/tecnologia/sesgos-genero-algoritmos-circulo-perverso-discriminacion-linea-vida-real_129_7198975.html
https://www.elmundo.es/tecnologia/2016/03/28/56f95c2146163fdd268b45d2.html
https://www.lavanguardia.com/tecnologia/20211114/7856262/inteligencia-artificial-entrenada-etica-vuelve-racista-misogina.html

S

#5 De ahí mi primera frase. No le quitaba razón con lo de los datos sesgados. Mi comentario va más encaminado a la última parte dónde desmiente la frase hecha por uno de los investigadores cuándo en la cita que puse demuestra claramente que no sabe del todo bien lo que habla.

#8 Efecticamente, ya hay métodos que permiten una explicabilidad del modelo que no dependen del algoritmo que se ha usado y que funcionan igual de bien con redes neuronales que con árboles de decisión, como son los valores SHAP.

#5 Es que si a un algoritmo sólo le muestras una parte de la realidad, sólo será capaz de intentar predecir esa realidad. Los algoritmos basados en aprendizaje por refuerzo precisamente buscan que el sesgo no venga dado por los datos, aunque puede venir por cómo has generado el entorno donde aprende y las acciones que puede llevar a cabo. Pero sí, es complicado no introducir sesgos de forma no consciente.

meneandro

#2 A ver, la IA puede hacer eso que dices y lo hace (en radiografías, tomografías y otros métodos de toma de imágenes o muestras). Del mismo modo que se hace con muchos otros algoritmos de clasificación, cada uno tiene fortalezas y debilidades. Lo que yo digo es que tampoco se puede confiar a ciegas en una IA, que se puede usar para detectar cosas, pero luego hay que analizarlas y estudiarlas convenientemente.

El blockchain igualmente es otra herramienta que tiene sus usos y es perfectamente válida para ellos.

#3 El problema es el del que tiene un martillo y todo lo que ve alrededor son clavos. Ni la IA ni el blockchain son la mejor herramienta para todo como nos quieren vender. Y tomárselo a cachondeo y ver las cosas superficialmente sólo sirve para negar los hechos y quedarse con una visión distorsionada de la realidad.

#4 Las IAs funcionan como una caja negra, no como un algoritmo. Sabes qué hace en general, pero no puedes describir y reproducir cada paso que da hasta llegar a una solución, no puedes modificarlos, no puedes depurarlos... así que no, no funciona como un algoritmo. A mi también me encanta la gente que va de expertos, con su palillo en la boca y no aporta ni siquiera un argumento para apoyar lo que dice de manera tajante y elocuente.

S

#6 Estás hablando de las redes neuronales y se está avanzando bastante en ese aspecto. Y no todo en IA son redes neuronales. Tienes árboles de decisión y otros algoritmos similares que son perfectamente interpretables. Y te repito, la frase "no funcionan como un algoritmo" carece de sentido. Que sea interpretable o que sea más o menos determinista no tiene nada que ver con que sea o se comporte como un algoritmo.

meneandro

#8 A ver, un elegir entre A o B es depurable, una red neuronal de una única neurona es depurable, etc.

Un árbol de decisión complejo, una red neuronal multicapa de cientos de neuronas, etc. NO son depurables. Los huamnos no tenemos capacidad de proceso para esas complejidades o si prefieres verlo así, es nada práctico siquiera ponerse a intentarlo. Sabemos cómo funcionan, si, podemos hacer una traza si queremos, pero la complejidad es tal que ni vas a ver los errores, ni vas a saber cómo corregirlos una vez los encuentres. Son cosas no lineales, con múltiples interdependencias, escalan muy mal... ¿dices que es como un algoritmo, cuando se comportan como sistemas complejos, como putas cajas negras? suerte con eso, chaval.

Un algoritmo es una receta. Basta seguir los pasos y ver cuándo falla más pronto o más tarde. Es lineal, no tiene dependencias, encuentras el punto exacto donde las cosas van mal y sabes por qué de manera lógica y directa.

S

#12 Tienes un fallo de concepto bastante grande con lo de algoritmo. Parece algo estás metido en el tema, pero te falta revisar conceptos, más profundidad y sobre todo algo de humildad, chaval.

Primero, las redes neuronales son algoritmos, te pongas como te pongas. De hecho, cualquier cosa que estés ejecutando en el PC es un algoritmo, que como bien has dicho, es una receta, una serie de instrucciones. Que luego de un resultado que para un humano no sea interpretable no lo convierte en algo que no es un algoritmo.

Luego, no se trata de ir neurona por neurona u operación por operación para entender como funciona por ejemplo una red neuronal. Si nos vamos a la convolucionales, con cada capa de profundida vas viendo que en cada paso va pasando de los objectos abstractos de la imagen a los detalles más finos. Con esto te puede valer o hacerte una idea de como trabaja la red y poder cambiar la arquitectura. Los "recientes" transformers, puedes ir viendo como cada "head" se va centrando en verbos, pronombres, etc... y como en una frase se le va dando más o menos valor a una palabra u otra dependiendo del contexto.
Aparte, esta frase "pero la complejidad es tal que ni vas a ver los errores, ni vas a saber cómo corregirlos una vez los encuentres" vuelve a carecer de sentido en el contexto de una red neuronal. La red o hace lo que quieres o no lo hace, no por eso es un error. Simplemente o te faltan datos, o entrenas de forma que no toca u otra de las mil cosas posibles, pero no es un error entendido como error de programación.


meneandro

#16 "Primero, las redes neuronales son algoritmos, te pongas como te pongas."
¿He negado yo la mayor? hablamos de dos cosas distintas, me temo. Tú de la arquitectura, yo de la red entrenada o camino de ser entrenada para corregir un problema o sesgo en los resultados. Modificar los pesos, no las relaciones.

He dicho: depura una red neuronal de una neurona. Como algoritmo que es, podrás. Ahora, depura una complicada, con varias capas y muchas neuronas por capa. Agárrate los machos. ¿Tiene sentido siquiera intentarlo? ¿qué pretendes conseguir? ¿vas a ver un desequilibrio en alguno de los pesos? ¿alguna de las interconexiones te sobra? ¿cómo coño depuras una red neuronal? ¿tiene sentido siquiera intentarlo?.

En resumen: una red neuronal se comporta como una puta caja negra. NO se puede depurar porque es IMPRACTICABLE. Y el que te confundes eres tú. La teoría es muy bonita, pero la práctica es la que dicta, y lo que dicta es que lo que tú dices es modificar la arquitectura, no cambiar la red neuronal una vez entrenada. Así que no, no se comporta como un algoritmo (donde puedes cambiarlo y ver y prever los resultados, incluso sobre la marcha si el lenguaje de programación de turno es dinámico e interpretado), tú realizas el proceso de entrenamiento de nuevo completo.


"Con esto te puede valer o hacerte una idea de como trabaja la red y poder cambiar la arquitectura."
Tenemos conocimientos generales de qué hace mejores unas arquitecturas de redes de otras, cuales se adaptan mejor a ciertas cosas que otras. Pero que me digas que por la cara puedes coger una red neuronal y mejorar su arquitectura así al vuelo sin un análisis exahustivo es una afirmación cuanto menos muy valiente. Y eso no es depurar, no es corregir un problema para un caso que te ha salido, es modelar un sistema completo que se adapte mejor a unos requisitos dados. Seguramente lo haces todos los días...

"Aparte, esta frase "pero la complejidad es tal que ni vas a ver los errores, ni vas a saber cómo corregirlos una vez los encuentres" vuelve a carecer de sentido en el contexto de una red neuronal. La red o hace lo que quieres o no lo hace, no por eso es un error"
Me das la razón sin darte cuenta. Aquí la única forma de mejorar una red neuronal es cambiarla y volver a entrenar todo de nuevo. No puedes modificar algo entrenado sobre la marcha, no puedes depurarlo, sólo puedes hacer cambios a la arquitectura y comprobar si es mejor o peor que la anterior.

" Simplemente o te faltan datos, o entrenas de forma que no toca u otra de las mil cosas posibles, pero no es un error entendido como error de programación."
Ahora resulta que NO es como un algoritmo ¿eh? quién lo iba a decir...

D

#6
A ver, si ya lo se, pero meterles a todo IA o blockchain porque es la moda es ridículo.
Ya sabemos como acaba la cosa

D

#4 Siguiendo todo el hilo, los espectadores aún estamos esperando que rectifiques este comentario que va de un sobrado que espanta, aunque luego tienes los santos cojones de quejarte precisamente de eso.

Marca menéame.

#24 ¡Qué grande! lol lol lol

S

Ni se os ocurra. Y mucho menos probarlo en VR.

S

#21 Ya bueno, pero te puedo sacar un ojo con ella.
Si te doy la razón en lo de las redes sociales, la gente no es consciente de lo que se puede llegar a hacer para manipular con estas herramientas. Pero por cada mal uso, hay también usos decentes. El problema es más a nivel de sociedad, ¿qué es lo que da pasta? Pues por ejemplo usar estos algoritmos para tener enganchados al personal al móvil mientras le metes tu propaganda por redes sociales.

l

#11 #22 El problema es en manos de quien esta. Si es de empresas, beneficiara a su amo y otros organismos podria beneficiarse desde ONG a los propios ciudadanos, pero han de organizarse.
Las IA son mas asequibles a los ciudadanos que otras tecnologias, como las industrias, pero las multis tambien estan mejor orgnaizadas.

S

#11 Una cuchara con un mal uso también puede tener consecuencias nefastas. De hecho esto se puede aplicar a prácticamente cualquier cosa.

M

#19 Pero la misma cuchara que uno controle por el mango no emite mensajes ni propina golpes a toda la población a quien alcance su reflejo.

Siempre lo he dicho: cuidado con las tecnologías. Mantenedlas siempre bien controladas.

S

#21 Ya bueno, pero te puedo sacar un ojo con ella.
Si te doy la razón en lo de las redes sociales, la gente no es consciente de lo que se puede llegar a hacer para manipular con estas herramientas. Pero por cada mal uso, hay también usos decentes. El problema es más a nivel de sociedad, ¿qué es lo que da pasta? Pues por ejemplo usar estos algoritmos para tener enganchados al personal al móvil mientras le metes tu propaganda por redes sociales.

l

#11 #22 El problema es en manos de quien esta. Si es de empresas, beneficiara a su amo y otros organismos podria beneficiarse desde ONG a los propios ciudadanos, pero han de organizarse.
Las IA son mas asequibles a los ciudadanos que otras tecnologias, como las industrias, pero las multis tambien estan mejor orgnaizadas.

S

#117 Totalmente. La persona de la que hablo se ajusta al perfil que comentas. El problema es que por muy culto que sea uno los sesgos de los que se aprovechan los tenemos todos (sobre todo cuando se trata de temas estadísticos) y si no te "vacunas" contra eso es fácil que te llegue cualquier charlatán y te manipule como quiera. Y una vez has picado ya es completamente mentalidad sectaria.

S

#72 Seguramente. El caso que siempre había sido una persona curiosa y los primeros indicios no lo supimos ver. Andaba preguntando que si la tierra era redonda por qué los líquidos se mantienen planos en el vaso, etc… Nosotros pensando que era el típico juego mental, pero visto lo visto, ahora tengo la certeza de que lo decía en serio.

S

#6 Desgraciadamente no es tan sencillo. Me ha tocado en la familia y es una impotencia porque para él (no se para los demás conspiranoicos) es cuestión de vida o muerte y teme realmente por lo que nos pueda pasar a los demás. No deja de buscar el bien para nosotros, pero ha caído en la trampa de 4 aprovechados que son los que verdaderamente sacan rédito de esto.

Z

#50 Preguntadle si es también terraplanista.

S

#72 Seguramente. El caso que siempre había sido una persona curiosa y los primeros indicios no lo supimos ver. Andaba preguntando que si la tierra era redonda por qué los líquidos se mantienen planos en el vaso, etc… Nosotros pensando que era el típico juego mental, pero visto lo visto, ahora tengo la certeza de que lo decía en serio.

c

#50 Yo también conozco una pareja muy cercana y es muy triste. Además se están poniendo en peligro al pertenecer a grupo de riesgo. Y no estoy hablando de analfabetos, todo lo contrario, gente culta y por otro lado generosa, que han decidido creer verdades alternativas, fuentes no oficiales y teorías diferentes.

S

#117 Totalmente. La persona de la que hablo se ajusta al perfil que comentas. El problema es que por muy culto que sea uno los sesgos de los que se aprovechan los tenemos todos (sobre todo cuando se trata de temas estadísticos) y si no te "vacunas" contra eso es fácil que te llegue cualquier charlatán y te manipule como quiera. Y una vez has picado ya es completamente mentalidad sectaria.

S

#18 Para superar a nuestros queridos gobernantes no haría falta nada de IA. Un simple programa sacando números aleatorios lo haría mejor.

Abdo_Collo

#23 Una neurona en una cueva sería más fiable...

D

#39 #31 #25 #21 #12 #11 el Sol no calienta tanto, pero la falta de Sol enfría muy rápidamente todo. Y un descenso repentino de las temperaturas provocaría vientos ciclónicos que refrescarían más las superficies, añadid a eso los frecuentes impactos de los pedazos de cometas que caerían desde el anillo de escombros en órbita, que al ser de hielo ayudarían a apagar los incendios y a remojar la tierra con agua fresquita. Todo son ventajas.

Taras_Bulba

#50 Ah vale, así explicado ya se ven las ventajas lol

D

#55 gracias. A veces en Meneame las ideas disruptoras se encuentran con un muro de incomprensión.

S

“El concepto de que las matemáticas son puramente objetivas es inequívocamente falso”, explica el manual. “Mantener la idea de que siempre hay respuestas correctas e incorrectas perpetúa la 'objetividad'. Aparentemente, eso también es racista”.

Total que si eres negro 2 + 2 puede ser igual a 4, a 2 o a "gallina".