m

#1 Claro, como alguna bandera de un batallón tiene un símbolo que utilizaron los nazis, primero convierto a todo el ejército de Ucrania en nazi, después a todo ucraniano en nazi, y después aplaudo con las orejas que un tipo que asesina a los opositores invada el país a sangre y fuego y lo convierta en un erial. Mientras tanto aún me queda tiempo para creerme en una posición moral superior a aquellos que critican este disparate…

ChukNorris

#40 ¿Hablas de Rusia?, o de Ucrania.

v

#40 "Alguna bandera de un batallón"

Y joer, el batallón Azov, na, pa qué, hombre...

Y Prawy Sektor, que dio el golpe de estado de Maidan, ná, hombre...

Y ya si eso decir algo de Putin, y arreglao y pa cama...

Jajajajajaja

frg

#40 lol ¡Alguna bandera! lol

¡Luego también dirás que los que fueron a Eurovisión por parte de Ucrania llevaban camisetas homenaje a patriotas Ucranianos! lol

A

#40 Abre los ojos.

Machakasaurio

#40 Y tienen al nazi, colaborador del Holocausto Stephan Bandera como ídolo.
Pero no llames nazis a la gente solo por adorar a nazis, llevar símbolos nazis, saludar como nazis, o hacer cosas de nazis.
Pero para ti y tú superioridad moral(intelectual está claro que no, ahí estamos de acuerdo) no son nazis.
Has barajado la posibilidad de que ambos bandos sean fascistas,y eso de contraatacar llamando fascistas a los otros cuando se lo llaman a los "tuyos" te deje intelectualmente a la altura del betún?

Beltenebros

#90 #105
Otra vez hay comentarios que me recuerdan a ese video buenísimo que dice algo parecido.
¿Sabéis a cuál me refiero o lo busco y pongo enlace?
CC #40.

redscare

#40 Cuanta razón tienes, solo porque llevan banderas nazis y tatuajes nazis y rinden honores a nazis, ya les llaman nazis!

Deckardio

#65 Cosa de izquierdas es (o debería ser) estar en contra de las invasiones independientemente de quien las ordene. Voy a modificar ligeramente tu comentario:

"¿cosas de la izquierda que son, apoyar a Bush y a Hussein? ¿Estar en contra de Hussein y Bush no es cosa de izquierdas"

Cc #56 ucrania es rusia, ese nacionalismo nuevo ucraniano no existe. Es algo moderno. En ucrania se habló ruso siempre. Deja de decir chorradas...

Es más, ucrania, la creo Lenin....


Pero, ¿de verdad te das cuenta de lo que estás diciendo? En primer lugar una nación no tiene nada que ver con un idioma, pese a lo que estiman los irredentistas y burguesías diversas. Un ensayo de referencia al respecto es de alguien muy de izquierdas y muy brillante como Hobsbawm (Naciones y nacionalismo desde 1780). Algo por otro lado obvio: ¿Es Gran Bretaña Australia? ¿O Argentina España?

En segundo lugar, Ucrania es un país con fronteras internacionalmente reconocidas según la legislación internacional. Con millones de personas que se sienten ucranianos, incluidos rusoparlantes. Algo con lo que no tenía problema el Kremlin hasta que quedó claro que Ucrania no sería un estado títere como Bielorrusia. El discurso que estás repitiendo y estoy seguro que sin saber adonde lleva, es que alguien que se siente ucraniano es una anomalía. Mucho cuidado con eso, que es la armazón ideológica con la que se sustentan los genocidios.

c

#101 ""¿cosas de la izquierda que son, apoyar a Bush y a Hussein? ¿Estar en contra de Hussein y Bush no es cosa de izquierdas""No se a que viene la comparación, tu sabrás. El gobierno de Ucrania y el de Rusia tienen bastante analogía ideológica, esos dos que tu citas son como el agua y el aceite.
PD: No hace falta que busques otros ejemplos, ya nos entendemos lo suficiente

Deckardio

#104 Pues no parece que nos entendamos, o al menos tú a mí, porque lo que pasaba con la invasión de Irak es que la gente de izquierdas la condenábamos independientemente de lo que fuera Saddam Hussein. Y ya te puedo asegurar que era bastante peor de lo que es Zelensky. Un tipo, por cierto, que cuando las fuerzas especiales rusas estaban en Hostomel, se quedó en Kiev. O sea, lo mismo que hizo Allende. Y el mismo destino hubiera tenido si los Spetsnaz hubieran llegado al palacio presidencial, que poco les faltó.

c

#114 Bueno, ya lo que me faltaba, que me compares a Zelenski cn Allende...Buenas tardes

Deckardio

#121 No debe ser tan mala la comparación, porque no me has dicho qué es falso de lo que he dicho. Buenas tardes.

c

#123 1-Lo de Ucrania es una guerra entre dos paises, lo de Chile un golpe de estado
2- Zelenski se sentia arropado y defendido por su ejercito y la comunidad internacional, Allende estaba mas solo que la una en el palacio presidencial y sin escapatoria.
3-El mismo destino por los cojones, Zelenski con toda seguridad se habría escapado con ayuda de la CIA y viviría un retiro dorado en Miami, Allende se suicido porque sabía lo que le esperaba.
La comparación mala no, peor, cogida con pinzas para justificar tus ideas.

Deckardio

#124 Esto es lo que dije: Un tipo, por cierto, que cuando las fuerzas especiales rusas estaban en Hostomel, se quedó en Kiev. O sea, lo mismo que hizo Allende. Y el mismo destino hubiera tenido si los Spetsnaz hubieran llegado al palacio presidencial, que poco les faltó.

Tu 1 y 2 no tienen nada que ver con eso. Pero 1 me sirve para decirte que lo que hay es una guerra provocada por la invasión de un país a otro. ¿Llamabas a la invasión de Irak por USA "una guerra entre dos países? ¿O ponías el énfasis en la invasión, que es lo que dió la patada al derecho internacional independiéntemente de lo que fuera Hussein?

3 A Zelensky cuando las fuerzas especiales rusas estaban a pocos kilómetros le ofrecieron salir, sí. Entre otros Macron. Y se quedó. Así que no has dicho nada que desmienta lo que comentaba. Solo estás cabalgando contradicciones, lo que hace que cuando desde la izquierda pidamos responsabilidades a potencias por violar el derecho internacional (sea USA o en este caso el Kremlin) seamos más débiles.

S

#30 uff un golpe directo a la linea de flotación

ochoceros

#30 Creo que habrá cangrejos que no opinen lo mismo

suppiluliuma

#1 Absolutamente. Y, por las mismas razones, también a Rusia y a quien comercie con Rusia. Creo que podemos estar todos de acuerdo con ello, ¿verdad?

mecha

#4 lol lol lol te la tenías guardada, no?

Beltenebros

#8
Ya ves, la falacia habitual del propagandista NAFO habitual.

CC #4.

suppiluliuma

#18 ¿Por qué mi comentario es una falacia?

#4 entonces tb a estados unidos, no?

suppiluliuma

#11 Seguro. Y también a Rusia y China, no?

#13 Seguro. Y también a Rusia y China, no?

Y, por enésima vez, el petróleo sirio es un error de redondeo en lo que producen los EEUU. Quienes se están beneficiando de él son las YPG. Ya sabes, lo héroes de Rojava contra el Estado Islámico, hasta que aceptaron la ayuda de EEUU y hubo que meterlos debajo de la alfombra, como si fueran nopersonas en 1984.

#17 china no se por qué. Rusia por supuesto.

suppiluliuma

#21 ¿Te suenan Tibet y Xinjiang?

#22 y la de los hunos en roma. Entonces metemos a España y a ver qué país dejamos fuera. No?

suppiluliuma

#24 Entonces podemos olvidarnos de Irak y Vietnam, ¿verdad?

Menuda jeta de cemento que tienes. Pero al menos has dejado lo selectivo que tu castigo a los que no respetan los DDHH.

Pablosky

#4 Me parece bien, pero si hay que sancionar a Rusia por invadir otros países de manera imperialista espero que también apoyes las sanciones a USA cuando hacen exactamente lo mismo. Ahora mismo están robando petróleo sirio, así que no tenemos que esperar a que pase de nuevo o acordarnos de cosas del pasado, está pasando ahora mismo

l

#1 Ya se está trabajando en ello, y mucho, mirate todo lo que hay en Criptografía Post-Cuantica.

Las agencias e instituciones tienen preocupación en que alguien pueda guardar los datos hoy, y descifrar todo años más tarde cuando los ordenadores cuánticos estén más avanzados. Por eso, cuanto antes se implementen criptografías post-cuanticas, mas tranquilos estarán las agencias (sus secretos estarán a salvo).

f

#14 en los ultimos documentos a los que he tenido acceso, lo que se recomienda para cifrado de documentos es AES. La razón es que es un algoritmo de cifrado simétrico, por lo que no es susceptible de romperse por avances en la factorización de numeros primos.

l

#27 Sin ser experto ni conocedor de detalles de este caso, creo que te has dejado la reincidencia del delito en la lista de posibles razones para la carcel preventiva.

Veelicus

#62 Cierto, pero quitandole el carnet ya te aseguras que no vuelve a conducir, salvo que tenga antecedentes.

p

#65 "quitandole el carnet ya te aseguras que no vuelve a conducir" Esa si que es buena jajaja
En serio te crees eso?
En donde vivo a una señora ya le han confiscado 2 o 3 coches por pillarla sin carnet una y otra vez, y cuando le quitan uno compraotro.
Por no hablar de ciertos colectivos donde lo de conducir sin carnet es el pan de cada dia

l

#56 Pues leyendo el enlace de la wiki que pones, salen las dos posibilidades que comentáis tú y #38. Por qué dices que no es diminutivo de "peso" como dice la Real Academia Española? Para mi tiene mucho sentido habiendo variedad de monedas "pesos" en sudamerica.

PauMarí

#67 a ver, según Wikipedia (y no solo Wikipedia, lo sé de otras fuentes) el uso de "peseta" en catalán es anterior por tanto la lógica diría que el origen de la palabra sea ese.
Y que conste que no tiene nada que ver con las paranoias de pseudohistoriadores como el INH, en este caso está bastante documentado, y el porqué la RAE lo omite ya sería otro tema (tampoco descartes que en según que épocas la RAE tomase decisiones digamos que "políticas"...)

PD: Lo sé principalmente porque Laureono Figuerola era del pueblo de mi mujer y allí tiene su plaza con su estatua y toda la pesca y como pueblo pequeño con pocos ciudadanos "ilustres" tienen muy bien documentado la historia de ese señor, que fue el ministro que, ante la falta de "una única moneda oficial" en España, decidió cuál de entre las varías que había sería y escogió "la catalana".
Cc #38

l

#2 Había una razón añadida para ese tipo de urbanismo. En caso de un bombardeo durante una guerra, si un bloque se derrumba no afecta a los colindantes. Creo que esta es una de las principales razones, porque hay ciudades en las antiguas ex-repúblicas soviéticas que mantienen esa distancia pero nunca estuvieron ajardinadas.

Sí, estaban paranoicos con los occidentales (y podría decirse que siguen estándolo).

l

#25 Me encanta New Pipe, pero debo admitir que no me funciona impecable. Con videos de podcasts largos, se "resetea" y empieza el anterior video que haya visto desde el principio.

Ese problema menor y el hecho de que en el ordenador no tengo publicidad (FireFox + uBlock Origin) hace que no lo use con todo su potencial, dado que coordinar o sincronizar los videos y canales entre ambas plataformas es bastante engorro.

Por lo demas, como app para el movil es mejor alternativa que la oficial.

b

#155 Otro bug de newpipe (y de webs donde se pueden poner vídeos en bucle) es que se cuelga en vídeos largos (de horas). Creo que se debe a que Youtube cambia el ID, en mitad de la reproducción.

l

#1 Lo más irónico es que si se tratase de arreglar el tema de los suicidios, por mucho que ayudase más a los hombres, se podrían salvar más mujeres que las asesinadas por violencia de genero....

l

#1 Cualquiera de las negaciones es estulticia....

Yo en su día también me pregunté cómo leches sabían los expertos que los humanos éramos la principal causa del cambio climático, si la presencia de CO2 en la atmosfera puede tener también origen natural. Resulta que el CO2 de origen humano tiene unas proporciones de isotopos diferente a la de origen natural, y esa diferencia es medible y notoria hoy en día.

Está bien ser crítico con las afirmaciones de los demás, pero esto requiere una investigación mínima antes de tratar de refutarlos, especialmente si esas afirmaciones son de carácter técnicas hechas por expertos. Lo contrario es ser estúpido, ignorante, o algo peor....

l

#57 Primero, tengo una idea de como van las IAs (sin ser experto, claro).

" meterle como datos de entrenamiento sus propias predicciones es una muy mala decisión, que a la larga resultaria en una IA que hace predicciones absurdas y sin sentido"

Segundo, justo esto que pones es lo siguiente que se están planteando con chatGPT (o GPT4), que pueda tener conversaciones consigo mismo. De nuevo, estamos hablando de modelos futuros, no del actual; y parece que justo esto de "Una IA no se autoentrena iterativamente" es lo que va a cambiar.

Tercero, igual que mucho del arte moderno de hoy en día no tiene sentido para muchos humanos, lo mismo podría pasar con IAs; "absurdo y sin sentido" aplicado a la originalidad no es un tema baladí (y sí muy subjetivo).

Por ultimo, tu ejemplo de Harry Potter y Spiderman es absurdo. Es como si coges a Tarzan, antes de que aprendiera a hablar, y le pides que te crea una historia; te va a contar algo sobre la selva. Si limitas una inteligencia artificialmente..... Lo estás limitando, obviamente.

Yo dejo ya aquí la conversación, que la calidad de los argumentos (por ambas partes) ya no compensa dedicarle más tiempo.
Muchas gracias por el intercambio de ideas.

eltoloco

#59 me parece evidente que no sabes como funciona una IA.

Sin intención de hacer una falacia de autoridad ni nada parecido, soy ingeniero informático y por ello estudié hace no mucho todos los modelos de inteligencia artificial, incluido los modelos en que se basa ChatGPT, concretamente machine learning y más concretamente redes neuronales. Lo primero de todo es que igual que cualquier otra red neuronal o cualquier otro modelo de machine learning, ChatGPT no se reentrena con su uso, sino que requiere otro proceso de aprendizaje totalmente nuevo (De ahí que en el footer te ponga la versión con la fecha en que ha sido entrenado), añadiendo nuevos datos de entrenamiento o cambiando parametros en el modelo. Pensar que una IA se reentrena automáticamente durante su uso es un error común que comete quien no las ha estudiado. Todavía no existe una IA capaz de hacer esto, precisamente por lo que te he explicado en el comentario anterior, porque eso llevaría a que se incluyan errores en sus datos de entrenamiento. Para evitar esto, los datos de entrenamiento son elegidos y tratados cuidadosamente, o deberían serlo, por un ingeniero de datos, si lo automatizas te cargas la base de un buen entrenamiento.

Dicho esto, que ChatGPT tenga conversaciones consigo mismo es totalmente absurdo, pues para que eso tenga sentido primero debería usar un nuevo modelo con autoentrenamiento, el cual repito no existe, y segundo estaría creando un circulo vicioso de meter datos de entrenamiento erróneos. No debes creerte todo lo que lees en los medios, porque en el 99% de los casos está escrito por "periodistas" que no tienen ni puñetera idea del tema sobre el que están escribiendo, incluso aunque sean "periodistas" aficionados a la materia, como por ejemplo los periodistas del motor o los de webs de tecnología estilo Xataka.

Por ultimo, el ejemplo de Harry Potter y Spiderman es una simplificación para que entiendas el concepto, si sustituyes estas dos historias por todas las obras de literatura existentes el punto es el mismo, por mucho que cada respuesta sea aleatoria, al final siempre será un batiburrillo de sus datos de entrenamiento, nunca creará nada totalmente nuevo.

l

#45 Tu mismo estás diciendo que la única diferencia entre la historia nueva de una IA o un humano, es que ambos están inspirados por historias anteriores creados por humanos.... Vamos, que entre la historia nueva que te puedas inventar tu y una IA, no hay gran diferencia.

Entiendo tu argumento de que algo en el progreso humano ha ido añadiendo "algo nuevo" en cada iteración de "historias nuevas" (y por tanto el origen de la "primera historia"). Pero es lo que te he escrito antes, una semilla aleatoria dentro de un modelo IA podría hacer esa misma función. En tu hipotético ejemplo donde el arte se hiciera solo con IA desde el siglo XV, estás aleatoriedades generarían evolución artística. Habría que ver como serian las corrientes artísticas (mediante interacción entre distintas IAs??), pero evolución podría haber sin problema.

eltoloco

#55 parece que no entiendes como funciona una IA. Una IA no se autoentrena iterativamente, se entrena una sola vez con los datos de entrenamiento y obtienes un modelo que es el que luego hace las predicciones (Textos, imagenes, etc). Para que una IA genere nuevos resultados hay que volver a reentrenarla con nuevos datos de entrenamiento, y meterle como datos de entrenamiento sus propias predicciones es una muy mala decisión, que a la larga resultaria en una IA que hace predicciones absurdas y sin sentido, pues le estás dando como datos de entrenamiento datos que no son reales, sino predicciones que tienen un margen de error, es decir, le estás dando como válidos unos datos que en parte serán erróneos, y luego hará predicciones en base a ellos, con lo que tendrás un mayor porcentaje de predicciones erróneas. Repite el proceso hast ael infinito y acabas con predicciones sin sentido en la mayoría de casos.

En cuanto a lo de "añadir una semilla aleatoria", todas las IAs que están de moda, como ChatGTP o Dall-E, ya tienen aleatoriedad, si no la tuviesen siempre generarían el mismo output para cada input. Además esto no tiene nada que ver con generar nuevo conocimiento, te pongo un ejemplo simple: por mucha aleatoriedad que le metas, si los datos de entrenamiento son Harry Potter y Spiderman, las historias resultantes siempre serán una mezcla de estas dos, cada vez diferentes tomando partes aleatorias de cada una de ellas, pero siempre una mezcla de estas dos al fin y al cabo. No hay generación de historias nuevas.

l

#57 Primero, tengo una idea de como van las IAs (sin ser experto, claro).

" meterle como datos de entrenamiento sus propias predicciones es una muy mala decisión, que a la larga resultaria en una IA que hace predicciones absurdas y sin sentido"

Segundo, justo esto que pones es lo siguiente que se están planteando con chatGPT (o GPT4), que pueda tener conversaciones consigo mismo. De nuevo, estamos hablando de modelos futuros, no del actual; y parece que justo esto de "Una IA no se autoentrena iterativamente" es lo que va a cambiar.

Tercero, igual que mucho del arte moderno de hoy en día no tiene sentido para muchos humanos, lo mismo podría pasar con IAs; "absurdo y sin sentido" aplicado a la originalidad no es un tema baladí (y sí muy subjetivo).

Por ultimo, tu ejemplo de Harry Potter y Spiderman es absurdo. Es como si coges a Tarzan, antes de que aprendiera a hablar, y le pides que te crea una historia; te va a contar algo sobre la selva. Si limitas una inteligencia artificialmente..... Lo estás limitando, obviamente.

Yo dejo ya aquí la conversación, que la calidad de los argumentos (por ambas partes) ya no compensa dedicarle más tiempo.
Muchas gracias por el intercambio de ideas.

eltoloco

#59 me parece evidente que no sabes como funciona una IA.

Sin intención de hacer una falacia de autoridad ni nada parecido, soy ingeniero informático y por ello estudié hace no mucho todos los modelos de inteligencia artificial, incluido los modelos en que se basa ChatGPT, concretamente machine learning y más concretamente redes neuronales. Lo primero de todo es que igual que cualquier otra red neuronal o cualquier otro modelo de machine learning, ChatGPT no se reentrena con su uso, sino que requiere otro proceso de aprendizaje totalmente nuevo (De ahí que en el footer te ponga la versión con la fecha en que ha sido entrenado), añadiendo nuevos datos de entrenamiento o cambiando parametros en el modelo. Pensar que una IA se reentrena automáticamente durante su uso es un error común que comete quien no las ha estudiado. Todavía no existe una IA capaz de hacer esto, precisamente por lo que te he explicado en el comentario anterior, porque eso llevaría a que se incluyan errores en sus datos de entrenamiento. Para evitar esto, los datos de entrenamiento son elegidos y tratados cuidadosamente, o deberían serlo, por un ingeniero de datos, si lo automatizas te cargas la base de un buen entrenamiento.

Dicho esto, que ChatGPT tenga conversaciones consigo mismo es totalmente absurdo, pues para que eso tenga sentido primero debería usar un nuevo modelo con autoentrenamiento, el cual repito no existe, y segundo estaría creando un circulo vicioso de meter datos de entrenamiento erróneos. No debes creerte todo lo que lees en los medios, porque en el 99% de los casos está escrito por "periodistas" que no tienen ni puñetera idea del tema sobre el que están escribiendo, incluso aunque sean "periodistas" aficionados a la materia, como por ejemplo los periodistas del motor o los de webs de tecnología estilo Xataka.

Por ultimo, el ejemplo de Harry Potter y Spiderman es una simplificación para que entiendas el concepto, si sustituyes estas dos historias por todas las obras de literatura existentes el punto es el mismo, por mucho que cada respuesta sea aleatoria, al final siempre será un batiburrillo de sus datos de entrenamiento, nunca creará nada totalmente nuevo.

l

#30 Estoy bastante de acuerdo con lo que dices.

Pero ChatGPT ya te puede crear una historia de la nada. Vale que es un batiburrillo de otras cosas que ha "leído" o asimilado durante el entrenamiento.... Pero me puedes asegurar que en el caso de un humano no es prácticamente lo mismo?

Quizás en un futuro poniendo un componente aleatorio en alguna versión del modelo se soluciona eso de la falta de originalidad....

rojo_separatista

#30, #32, alphafold ha conseguido resolver el problema de la predicción del pliegue tridimensional de las proteínas entrenándola a partir de los limitados ejemplos conocidos. Ningún equipo de investigación lo logró utilizando una aproximación basada en modelos de física simulados. Es decir, ha logrado crear conocimiento. Sin alma, sin conciencia de lo que hace y sin voluntad de hacerlo para un fin más elevado. Pero ha logrado algo descubrir patrones, que los humanos no habíamos logrado descubrir antes.

eltoloco

#36 tu mismo lo has dicho, descubrir patrones que ya están ahí, y eso a su vez ha permitido a los investigadores generar nuevo conocimiento. Y es que la IA es simplemente eso: estadistica automatizada, y por lo tanto sus funciones están limitadas a lo que permite hacer la estadística, que se puede resumir en descubrir patrones y repetirlos.

rojo_separatista

#39, los patrones que ha encontrado Alphafold en la forma de plegarse las proteínas no sabemos dónde están, porque estas redes neuronales son tan profundas que la forma en la que interactúan sus decenas de miles de parámetros entre sí son una caja negra inescrutable. Los humanos solo podemos trabajar con el output y el input del modelo, pero no podemos desentrañar lo que pasa dentro realmente.

¿En este caso dónde está este nuevo conocimiento que permite predecir el pliegue de proteínas, si no es en la red neuronal inentendible para nosotros?

eltoloco

#40 no conozco el caso del que estás hablando, así que no voy a opinar sobre ello. Solo decir que parece que ni tú lo conoces, porque primero dices que ha conseguido resolverlo para después decir que no se sabe, por lo tanto lo que extraigo es que a veces acierta y otras veces no, con mayor o menos acierto, como cualquier otro modelo estadístico. Eso no es generar conocimiento, es tirar una respuesta y cruzar los dedos, comprobando después manualmente si el resultado es válido o no. Generar conocimiento sería descubrir un patrón que permita acertar en el 100% de ocasiones, incluso aunque ese patrón esté oculto dentro del modelo entrenado. Discutir sin tener los datos reales sobre todo esto es lo mismo que nada.

rojo_separatista

#62, conozco el caso bastante bien.

A grandes rasgos te diré que el problema del pliegue de las proteínas es un problema fundamental de la biología, al resolverse permite a los biólogos moleculares acelerar sus investigaciones relacionadas con ellas muchísimo. Se sabe que la forma en que se pliegan viene determinada por la secuencia de aminoácidos que la conforman pero es un sistema demasiado complejo para que ningún modelo hasta ahora haya sido capaz de predecir su forma basándose en simulaciones físicas de como interactúan las moléculas que constituyen los aminoácidos que las conforman. La única manera efectiva de determinar su forma era cristalizandolas y midiendo sus propiedades con instrumentos muy específicos pero era un proceso extremadamente caro y delicado. Por eso solo se conocía una pequeñísima parte de la forma del conjunto total de proteínas.

Los investigadores de Google decidieron aproximarse al problema de otra manera, en lugar de intentar saber como interactúan los aminoacidos directamente, decidieron entrenar un modelo de aprendizaje profundo para que lo aprendiera a partir de los pocos miles de proteínas cuya forma era conocida. Para convertir los datos tridimensionales el números construyeron una matriz de distancias entre cada uno de los aminoácidos. Así el modelo recibía un vector (secuencia de aminoácidos) y devolvía una matriz de coste entre cada aminoácido. A partir de esta matriz y mediante el método estadístico podían reconstruir la forma tridimensional de la proteína.

Se comprobó que funcionaba bien para cualquier cadena de aminoácidos y el problema abierto de la predicción de la forma de las proteínas quedó resuelto con una precisión jamás lograda por ningún equipo de investigación.

¿Problema? Que el modelo que recibe el vector y lo convierte en una matriz es una caja negra imposible de descifrar pero que contiene el conocimiento necesario para resolver el problema del pliegue de proteínas.

Es un problema complejo, pero he intentado explicarlo de la forma más entendible posible. En internet tienes cientos de artículos que hablan sobre ello en profundidad.

https://es.m.wikipedia.org/wiki/AlphaFold

eltoloco

#63 me ha bastado leer dos párrafos para comprobar que lo que he supuesto en el comentario #62 era cierto, y por ende que lo acabas de decir tú es falso, y el problema no ha quedado resulto ni funciona para cualquier proteína. Es simplemente una predicción, como cualquier otra IA, y además esta tiene un margen de error muy alto:

En alrededor de dos tercios de las proteínas, AlphaFold 2 obtuvo una puntuación superior a 90 en la prueba de distancia global (GDT), que compara las predicciones de los programas con las estructuras determinadas experimentalmente; una puntuación de 100 denota una coincidencia completa.

Vamos, que ni siquiera es capaz de acertar con todas las proteínas que cuya estructura ha sido determinada manualmente.

rojo_separatista

#68, otro spoiler, todos los modelos descritos por la ciencia predicen la realidad con un margen de confianza determinado. Te crees que no es nuevo conocimiento ser capaz de hacerlo con este grado de precisión?

Ponerme a discutir contigo en plan cuñao sobre lo relevante que ha sido AlphaFold en la biología molecular empieza a ser bastante ridículo. Así que te cito algunas fuentes importantes y me retiro.

‘It will change everything’: DeepMind’s AI makes gigantic leap in solving protein structures
https://www.nature.com/articles/d41586-020-03348-4

AlphaFold: a solution to a 50-year-old grand challenge in biology
https://www.deepmind.com/blog/alphafold-a-solution-to-a-50-year-old-grand-challenge-in-biology

DeepMind’s AlphaFold2 Solves the Long-Stood Protein-Folding Problem
https://www.analyticsinsight.net/deepminds-alphafold2-solves-the-long-stood-protein-folding-problem/

One of the Biggest Problems in Biology Has Finally Been Solved
https://www.scientificamerican.com/article/one-of-the-biggest-problems-in-biology-has-finally-been-solved/

eltoloco

#32 la diferencia entre la historia "nueva" que puede crear un humano y la que puede crear ChatGTP o una IA similar, es que aunque en ambos casos las dos estarán "inspiradas" en mayor o menor medida en otra historia previa (Totalmente en el caso de la IA), esa historia previa siempre la habrá creado otro humano. Por lo tanto remontando al inicio de los tiempos, donde no había ni lengua escrita, evidentemente las primeras historias las crearon los humanos, las fueron transmitiendo primero boca a boca y después por escrito, y sobre ellas o basadas en ellas se han ido creando nuevas. Por lo tanto el humano siempre es la fuente del conocimiento, mientras que la IA en este momento se limita a hacer batiburrillos de historias ya existentes. Es una diferencia abismal.

Lo mismo se puede aplicar a cualquier otro tipo de IA, por ejemplo a las IAs de generación de imágenes. Las imágenes que crea son innegablemente nuevas, no hay otra igual, pero no dejan de ser batiburrillos de las imágenes que usa en su proceso de entrenamiento, que a su vez son imágenes creadas por humanos o directamente fotografías del mundo real. Por lo tanto si a partir de ahora solo generasemos imágenes mediante IA, no aparecerían nuevos estilos de pintura o fotografia. Es más, si a partir del siglo XV solo se hubiesen creado imágenes por IA, no tendríamos el realismo, el impresionismo, el surrealismo, etc, etc.. porque estos estilos son creaciones humanas. Dicho de otra forma, le puedes decir a una IA que te haga un nuevo cuadro de un caballo con estilo impresionista, pero no le puedes decir a una IA que te cree un nuevo estilo.

l

#45 Tu mismo estás diciendo que la única diferencia entre la historia nueva de una IA o un humano, es que ambos están inspirados por historias anteriores creados por humanos.... Vamos, que entre la historia nueva que te puedas inventar tu y una IA, no hay gran diferencia.

Entiendo tu argumento de que algo en el progreso humano ha ido añadiendo "algo nuevo" en cada iteración de "historias nuevas" (y por tanto el origen de la "primera historia"). Pero es lo que te he escrito antes, una semilla aleatoria dentro de un modelo IA podría hacer esa misma función. En tu hipotético ejemplo donde el arte se hiciera solo con IA desde el siglo XV, estás aleatoriedades generarían evolución artística. Habría que ver como serian las corrientes artísticas (mediante interacción entre distintas IAs??), pero evolución podría haber sin problema.

eltoloco

#55 parece que no entiendes como funciona una IA. Una IA no se autoentrena iterativamente, se entrena una sola vez con los datos de entrenamiento y obtienes un modelo que es el que luego hace las predicciones (Textos, imagenes, etc). Para que una IA genere nuevos resultados hay que volver a reentrenarla con nuevos datos de entrenamiento, y meterle como datos de entrenamiento sus propias predicciones es una muy mala decisión, que a la larga resultaria en una IA que hace predicciones absurdas y sin sentido, pues le estás dando como datos de entrenamiento datos que no son reales, sino predicciones que tienen un margen de error, es decir, le estás dando como válidos unos datos que en parte serán erróneos, y luego hará predicciones en base a ellos, con lo que tendrás un mayor porcentaje de predicciones erróneas. Repite el proceso hast ael infinito y acabas con predicciones sin sentido en la mayoría de casos.

En cuanto a lo de "añadir una semilla aleatoria", todas las IAs que están de moda, como ChatGTP o Dall-E, ya tienen aleatoriedad, si no la tuviesen siempre generarían el mismo output para cada input. Además esto no tiene nada que ver con generar nuevo conocimiento, te pongo un ejemplo simple: por mucha aleatoriedad que le metas, si los datos de entrenamiento son Harry Potter y Spiderman, las historias resultantes siempre serán una mezcla de estas dos, cada vez diferentes tomando partes aleatorias de cada una de ellas, pero siempre una mezcla de estas dos al fin y al cabo. No hay generación de historias nuevas.

l

#57 Primero, tengo una idea de como van las IAs (sin ser experto, claro).

" meterle como datos de entrenamiento sus propias predicciones es una muy mala decisión, que a la larga resultaria en una IA que hace predicciones absurdas y sin sentido"

Segundo, justo esto que pones es lo siguiente que se están planteando con chatGPT (o GPT4), que pueda tener conversaciones consigo mismo. De nuevo, estamos hablando de modelos futuros, no del actual; y parece que justo esto de "Una IA no se autoentrena iterativamente" es lo que va a cambiar.

Tercero, igual que mucho del arte moderno de hoy en día no tiene sentido para muchos humanos, lo mismo podría pasar con IAs; "absurdo y sin sentido" aplicado a la originalidad no es un tema baladí (y sí muy subjetivo).

Por ultimo, tu ejemplo de Harry Potter y Spiderman es absurdo. Es como si coges a Tarzan, antes de que aprendiera a hablar, y le pides que te crea una historia; te va a contar algo sobre la selva. Si limitas una inteligencia artificialmente..... Lo estás limitando, obviamente.

Yo dejo ya aquí la conversación, que la calidad de los argumentos (por ambas partes) ya no compensa dedicarle más tiempo.
Muchas gracias por el intercambio de ideas.

eltoloco

#59 me parece evidente que no sabes como funciona una IA.

Sin intención de hacer una falacia de autoridad ni nada parecido, soy ingeniero informático y por ello estudié hace no mucho todos los modelos de inteligencia artificial, incluido los modelos en que se basa ChatGPT, concretamente machine learning y más concretamente redes neuronales. Lo primero de todo es que igual que cualquier otra red neuronal o cualquier otro modelo de machine learning, ChatGPT no se reentrena con su uso, sino que requiere otro proceso de aprendizaje totalmente nuevo (De ahí que en el footer te ponga la versión con la fecha en que ha sido entrenado), añadiendo nuevos datos de entrenamiento o cambiando parametros en el modelo. Pensar que una IA se reentrena automáticamente durante su uso es un error común que comete quien no las ha estudiado. Todavía no existe una IA capaz de hacer esto, precisamente por lo que te he explicado en el comentario anterior, porque eso llevaría a que se incluyan errores en sus datos de entrenamiento. Para evitar esto, los datos de entrenamiento son elegidos y tratados cuidadosamente, o deberían serlo, por un ingeniero de datos, si lo automatizas te cargas la base de un buen entrenamiento.

Dicho esto, que ChatGPT tenga conversaciones consigo mismo es totalmente absurdo, pues para que eso tenga sentido primero debería usar un nuevo modelo con autoentrenamiento, el cual repito no existe, y segundo estaría creando un circulo vicioso de meter datos de entrenamiento erróneos. No debes creerte todo lo que lees en los medios, porque en el 99% de los casos está escrito por "periodistas" que no tienen ni puñetera idea del tema sobre el que están escribiendo, incluso aunque sean "periodistas" aficionados a la materia, como por ejemplo los periodistas del motor o los de webs de tecnología estilo Xataka.

Por ultimo, el ejemplo de Harry Potter y Spiderman es una simplificación para que entiendas el concepto, si sustituyes estas dos historias por todas las obras de literatura existentes el punto es el mismo, por mucho que cada respuesta sea aleatoria, al final siempre será un batiburrillo de sus datos de entrenamiento, nunca creará nada totalmente nuevo.

l

#9 Como bien pone #6, chatGPT se puede entender como un loro estocástico.... La miga está en que este caso de chatGPT puede ser una versión simplificada de una definición genérica (el "loro estocástico"), y donde una versión más compleja de esa definición se podría también aplicar a los humanos! Al fin y al cabo, los humanos nos podríamos definir como "monos estocásticos", donde nuestras acciones más probables vienen dadas por estímulos y ciertos "parámetros" (diferentes para cada humanos; y muchos- parámetros, por no decir todos, biológicos).

Pero lo más interesante viene cuando piensas en por qué debería el ser humano ser el extremo complejo de esa definición.... y no solo un escalón más.

eltoloco

#26 hay una diferencia muy clara, y es que el humano puede generar y genera nuevo conocimiento, mientras que ChatGPT no. Y de hecho ninguna AI actual genera nuevo conocimiento, simplemente automatiza tareas. Una IAG si que debería generar nuevo conocimiento, pues realmente entendería los temas a tratar, y eso le permitiría ampliarlos, el problema es que la IAG solo existe de forma teórica y no hay nada real que se le acerque minimamente.

l

#30 Estoy bastante de acuerdo con lo que dices.

Pero ChatGPT ya te puede crear una historia de la nada. Vale que es un batiburrillo de otras cosas que ha "leído" o asimilado durante el entrenamiento.... Pero me puedes asegurar que en el caso de un humano no es prácticamente lo mismo?

Quizás en un futuro poniendo un componente aleatorio en alguna versión del modelo se soluciona eso de la falta de originalidad....

rojo_separatista

#30, #32, alphafold ha conseguido resolver el problema de la predicción del pliegue tridimensional de las proteínas entrenándola a partir de los limitados ejemplos conocidos. Ningún equipo de investigación lo logró utilizando una aproximación basada en modelos de física simulados. Es decir, ha logrado crear conocimiento. Sin alma, sin conciencia de lo que hace y sin voluntad de hacerlo para un fin más elevado. Pero ha logrado algo descubrir patrones, que los humanos no habíamos logrado descubrir antes.

eltoloco

#36 tu mismo lo has dicho, descubrir patrones que ya están ahí, y eso a su vez ha permitido a los investigadores generar nuevo conocimiento. Y es que la IA es simplemente eso: estadistica automatizada, y por lo tanto sus funciones están limitadas a lo que permite hacer la estadística, que se puede resumir en descubrir patrones y repetirlos.

rojo_separatista

#39, los patrones que ha encontrado Alphafold en la forma de plegarse las proteínas no sabemos dónde están, porque estas redes neuronales son tan profundas que la forma en la que interactúan sus decenas de miles de parámetros entre sí son una caja negra inescrutable. Los humanos solo podemos trabajar con el output y el input del modelo, pero no podemos desentrañar lo que pasa dentro realmente.

¿En este caso dónde está este nuevo conocimiento que permite predecir el pliegue de proteínas, si no es en la red neuronal inentendible para nosotros?

eltoloco

#40 no conozco el caso del que estás hablando, así que no voy a opinar sobre ello. Solo decir que parece que ni tú lo conoces, porque primero dices que ha conseguido resolverlo para después decir que no se sabe, por lo tanto lo que extraigo es que a veces acierta y otras veces no, con mayor o menos acierto, como cualquier otro modelo estadístico. Eso no es generar conocimiento, es tirar una respuesta y cruzar los dedos, comprobando después manualmente si el resultado es válido o no. Generar conocimiento sería descubrir un patrón que permita acertar en el 100% de ocasiones, incluso aunque ese patrón esté oculto dentro del modelo entrenado. Discutir sin tener los datos reales sobre todo esto es lo mismo que nada.

rojo_separatista

#62, conozco el caso bastante bien.

A grandes rasgos te diré que el problema del pliegue de las proteínas es un problema fundamental de la biología, al resolverse permite a los biólogos moleculares acelerar sus investigaciones relacionadas con ellas muchísimo. Se sabe que la forma en que se pliegan viene determinada por la secuencia de aminoácidos que la conforman pero es un sistema demasiado complejo para que ningún modelo hasta ahora haya sido capaz de predecir su forma basándose en simulaciones físicas de como interactúan las moléculas que constituyen los aminoácidos que las conforman. La única manera efectiva de determinar su forma era cristalizandolas y midiendo sus propiedades con instrumentos muy específicos pero era un proceso extremadamente caro y delicado. Por eso solo se conocía una pequeñísima parte de la forma del conjunto total de proteínas.

Los investigadores de Google decidieron aproximarse al problema de otra manera, en lugar de intentar saber como interactúan los aminoacidos directamente, decidieron entrenar un modelo de aprendizaje profundo para que lo aprendiera a partir de los pocos miles de proteínas cuya forma era conocida. Para convertir los datos tridimensionales el números construyeron una matriz de distancias entre cada uno de los aminoácidos. Así el modelo recibía un vector (secuencia de aminoácidos) y devolvía una matriz de coste entre cada aminoácido. A partir de esta matriz y mediante el método estadístico podían reconstruir la forma tridimensional de la proteína.

Se comprobó que funcionaba bien para cualquier cadena de aminoácidos y el problema abierto de la predicción de la forma de las proteínas quedó resuelto con una precisión jamás lograda por ningún equipo de investigación.

¿Problema? Que el modelo que recibe el vector y lo convierte en una matriz es una caja negra imposible de descifrar pero que contiene el conocimiento necesario para resolver el problema del pliegue de proteínas.

Es un problema complejo, pero he intentado explicarlo de la forma más entendible posible. En internet tienes cientos de artículos que hablan sobre ello en profundidad.

https://es.m.wikipedia.org/wiki/AlphaFold

eltoloco

#63 me ha bastado leer dos párrafos para comprobar que lo que he supuesto en el comentario #62 era cierto, y por ende que lo acabas de decir tú es falso, y el problema no ha quedado resulto ni funciona para cualquier proteína. Es simplemente una predicción, como cualquier otra IA, y además esta tiene un margen de error muy alto:

En alrededor de dos tercios de las proteínas, AlphaFold 2 obtuvo una puntuación superior a 90 en la prueba de distancia global (GDT), que compara las predicciones de los programas con las estructuras determinadas experimentalmente; una puntuación de 100 denota una coincidencia completa.

Vamos, que ni siquiera es capaz de acertar con todas las proteínas que cuya estructura ha sido determinada manualmente.

eltoloco

#32 la diferencia entre la historia "nueva" que puede crear un humano y la que puede crear ChatGTP o una IA similar, es que aunque en ambos casos las dos estarán "inspiradas" en mayor o menor medida en otra historia previa (Totalmente en el caso de la IA), esa historia previa siempre la habrá creado otro humano. Por lo tanto remontando al inicio de los tiempos, donde no había ni lengua escrita, evidentemente las primeras historias las crearon los humanos, las fueron transmitiendo primero boca a boca y después por escrito, y sobre ellas o basadas en ellas se han ido creando nuevas. Por lo tanto el humano siempre es la fuente del conocimiento, mientras que la IA en este momento se limita a hacer batiburrillos de historias ya existentes. Es una diferencia abismal.

Lo mismo se puede aplicar a cualquier otro tipo de IA, por ejemplo a las IAs de generación de imágenes. Las imágenes que crea son innegablemente nuevas, no hay otra igual, pero no dejan de ser batiburrillos de las imágenes que usa en su proceso de entrenamiento, que a su vez son imágenes creadas por humanos o directamente fotografías del mundo real. Por lo tanto si a partir de ahora solo generasemos imágenes mediante IA, no aparecerían nuevos estilos de pintura o fotografia. Es más, si a partir del siglo XV solo se hubiesen creado imágenes por IA, no tendríamos el realismo, el impresionismo, el surrealismo, etc, etc.. porque estos estilos son creaciones humanas. Dicho de otra forma, le puedes decir a una IA que te haga un nuevo cuadro de un caballo con estilo impresionista, pero no le puedes decir a una IA que te cree un nuevo estilo.

l

#45 Tu mismo estás diciendo que la única diferencia entre la historia nueva de una IA o un humano, es que ambos están inspirados por historias anteriores creados por humanos.... Vamos, que entre la historia nueva que te puedas inventar tu y una IA, no hay gran diferencia.

Entiendo tu argumento de que algo en el progreso humano ha ido añadiendo "algo nuevo" en cada iteración de "historias nuevas" (y por tanto el origen de la "primera historia"). Pero es lo que te he escrito antes, una semilla aleatoria dentro de un modelo IA podría hacer esa misma función. En tu hipotético ejemplo donde el arte se hiciera solo con IA desde el siglo XV, estás aleatoriedades generarían evolución artística. Habría que ver como serian las corrientes artísticas (mediante interacción entre distintas IAs??), pero evolución podría haber sin problema.

eltoloco

#55 parece que no entiendes como funciona una IA. Una IA no se autoentrena iterativamente, se entrena una sola vez con los datos de entrenamiento y obtienes un modelo que es el que luego hace las predicciones (Textos, imagenes, etc). Para que una IA genere nuevos resultados hay que volver a reentrenarla con nuevos datos de entrenamiento, y meterle como datos de entrenamiento sus propias predicciones es una muy mala decisión, que a la larga resultaria en una IA que hace predicciones absurdas y sin sentido, pues le estás dando como datos de entrenamiento datos que no son reales, sino predicciones que tienen un margen de error, es decir, le estás dando como válidos unos datos que en parte serán erróneos, y luego hará predicciones en base a ellos, con lo que tendrás un mayor porcentaje de predicciones erróneas. Repite el proceso hast ael infinito y acabas con predicciones sin sentido en la mayoría de casos.

En cuanto a lo de "añadir una semilla aleatoria", todas las IAs que están de moda, como ChatGTP o Dall-E, ya tienen aleatoriedad, si no la tuviesen siempre generarían el mismo output para cada input. Además esto no tiene nada que ver con generar nuevo conocimiento, te pongo un ejemplo simple: por mucha aleatoriedad que le metas, si los datos de entrenamiento son Harry Potter y Spiderman, las historias resultantes siempre serán una mezcla de estas dos, cada vez diferentes tomando partes aleatorias de cada una de ellas, pero siempre una mezcla de estas dos al fin y al cabo. No hay generación de historias nuevas.

l

#57 Primero, tengo una idea de como van las IAs (sin ser experto, claro).

" meterle como datos de entrenamiento sus propias predicciones es una muy mala decisión, que a la larga resultaria en una IA que hace predicciones absurdas y sin sentido"

Segundo, justo esto que pones es lo siguiente que se están planteando con chatGPT (o GPT4), que pueda tener conversaciones consigo mismo. De nuevo, estamos hablando de modelos futuros, no del actual; y parece que justo esto de "Una IA no se autoentrena iterativamente" es lo que va a cambiar.

Tercero, igual que mucho del arte moderno de hoy en día no tiene sentido para muchos humanos, lo mismo podría pasar con IAs; "absurdo y sin sentido" aplicado a la originalidad no es un tema baladí (y sí muy subjetivo).

Por ultimo, tu ejemplo de Harry Potter y Spiderman es absurdo. Es como si coges a Tarzan, antes de que aprendiera a hablar, y le pides que te crea una historia; te va a contar algo sobre la selva. Si limitas una inteligencia artificialmente..... Lo estás limitando, obviamente.

Yo dejo ya aquí la conversación, que la calidad de los argumentos (por ambas partes) ya no compensa dedicarle más tiempo.
Muchas gracias por el intercambio de ideas.

l

#26 Correcto, creo que me ha pasado a mi también. También parece haber un pasaje que lo atraviesa, pero te tienes que dopar mucho mucho para atravesarlo (yo no lo he conseguido de esa forma).

David_OM

#29 Yo lo logré tras unos cuantas mejoras e intentos.
Es imposible ir más allá de la "superficie" y hay un texto que pone "the end"

JoulSauron

#39 Es posible si te pasas el juego bien. Después de eso, hay una zona llena de huevos de pascua. Y si pasas esa zona, ya es vuelo infinito sin encontrarte nada.

JoulSauron

#39 Es posible, completando el juego. Hay un par de cosas chulas más allá de la esfera de cristal.

l

#8 Yo creo que he llegado al limite del universo....

kosako

#16 Si te dopas suficiente puedes atravesarlo. Pero luego yo no pude ganar a esa gravedad. Y lo dejé ahí porque desde el móvil al menos ya estaba mareao.

#19

l

#26 Correcto, creo que me ha pasado a mi también. También parece haber un pasaje que lo atraviesa, pero te tienes que dopar mucho mucho para atravesarlo (yo no lo he conseguido de esa forma).

David_OM

#29 Yo lo logré tras unos cuantas mejoras e intentos.
Es imposible ir más allá de la "superficie" y hay un texto que pone "the end"

JoulSauron

#39 Es posible si te pasas el juego bien. Después de eso, hay una zona llena de huevos de pascua. Y si pasas esa zona, ya es vuelo infinito sin encontrarte nada.

JoulSauron

#39 Es posible, completando el juego. Hay un par de cosas chulas más allá de la esfera de cristal.

l

#56 Yo no veo nada loco poner a los dron un sistema de autodestrucción explosiva que explote (bajo control humano, claro) justo cuando otros aviones hacen esas locuras tan cerca.... Y si alguien pregunta, es que han chocado! Como ya dice #53, habría sido un accidente!

P.D.: también está le versión no explosiva de "intentando hacer maniobras evasivas han chocado".....

JanSmite

#109 No es necesario: "DOS aviones me han atacado, tengo pruebas, misilazo que te crió en defensa propia." ¯\_( ツ )_/¯

d

#109 Con que tuviera un mechero haciendo chispitas se van los dos abajo

l

#7 Visto el panorama, quiero compartir una recomendación que escuché en su día muy buena para estos casos. La gran mayoría de las veces, las líneas de móvil desde donde se lanzan esas amenazas tienen como titular el padre de la criatura. Con esas amenazas por escrito, o incluso con solo acoso escolar, se acude a la policía y se denuncia que desde una línea titular de un adulto se esta amenazando/acosando a tu hijo. Los resultados debieran ser bastante mejores que quejarse en la escuela...

Baal

#52 sin duda, quejarse a la escuela puede ser poco eficaz

herlocksholmes

#52 Eso es cierto. Yo, como tutor, he hecho esa recomendación más de una vez. Y funciona, tanto que la propia amenaza corta de raíz muchos problemas

l

Pareciéndome ambos casos similares, no son del todo iguales (aunque tampoco estoy de acuerdo del uso político que se ha hecho de la diferencia). Aparte dejo el hecho de que el impresentable de Risto cambia de opinión en cualquier tema según sople el viento.

Hablando en el plano institucional, todo se deriva de la "legitimidad". Si un español se va a luchar de forma personal junto a un gobierno extranjero reconocido por España, no hay mayores problemas diplomáticos para España siempre que sea para defender dicho país reconocido por España.

Dar el mismo apoyo, o incluso no perseguir el otro caso, puede acarrear consecuencias diplomáticas. Al fin y al cabo, un ciudadano de España se ha ido a luchar a una guerra a tres bandas (o mas) y no parece que sea en el lado del gobierno que España reconoce (todo ello independientemente de todos las puñaladas geopolíticas implicadas en ese berenjenal).

Hablando en el plano personal, yo no considero terrorista a ninguno de los dos casos. Pero viendo las diferencias, entiendo que haya quien quiera ser convencido de lo contrario....

l

#31 Mi referencia es una mezcla entre Contact y un libro corto que me gustó muchísimo, "Jinetes de la antorcha".

l

#11 "...o naves tan grandes que viajen durante generaciones serían la solución, pero igual llegamos y nos encontramos que no se pueden habitar estos planetas."

Hay incluso ambientaciones de sci-fi basado en esa idea, donde una civilización llega a un planeta tras milenios de viaje... para descubrir que se ha desarrollado vida inteligente en el planeta objetivo (la serie Defiance por ejemplo).

Estoy de acuerdo que la escala del universo es inmenso... Pero habrá que hacer un esfuerzo para ocupar todo ese espacio; porque sino, cuanto espacio desaprovechado!

Peka

#24 "Pero habrá que hacer un esfuerzo para ocupar todo ese espacio; porque sino, cuanto espacio desaprovechado!"

Yo tambien he visto Contact.

l

#31 Mi referencia es una mezcla entre Contact y un libro corto que me gustó muchísimo, "Jinetes de la antorcha".

l

#75 Eso estaría por ver..... Lo que sí se sabe es que de donde se ha expulsado a rusia han aparecido fosas comunes.

Y aunque fuese verdad lo que dices, el mal menor seguiría siendo expulsar a rusia; la población del Dombás es mucho menor que la del resto de Ucrania.