#1 Dudo mucho que la proporción de bajas sea esa, si no ya se habrían rendido hace tiempo. Los que avanzan recogen cadáveres enemigos, los que defienden y reculan no pueden.
Aún así sin el apoyo de EEUU la posición de Ucrania se debilitó mucho, aunque no se vea reflejado en el mapa las opciones que le quedan son mínimas, el único giro posible era que la OTAN se implicase mucho más y eso y no va a ocurrir.
#1 Lo curioso es que en solo dos semanas los rusos hayan asesinado a tantos ucranianos. Y eso sin contar los cientos de Bucha, supongo que porque ya estaban allí cuando los rusos se fueron.
#1 Es un win-win en cualquier caso: los rusos pueden vender que están limpiando Ucrania con poquísimas bajas y los ucranianos que los rusos están ofreciéndoles intercambios enormemente favorables solo por mantener la imagen de bando ganador.
#44 Que hables de conceptos mezclados "en mi cabeza" cuando eres tú el que afirma que he dicho cosas que no he dicho tiene su guasa.
En primer lugar, sí, razonar implica una intencionalidad por llegar a un resultado cierto, no a cualquier cosa que está acotada en base al entrenamiento disponible. Por cierto, esta limitación de la disponibilidad es otro motivo más por el cual no se puede decir que razonen.
En segundo lugar: no he dicho que fallase, he dicho que al cambiar el conjunto de entrenamiento la precisión descendía, pues el segundo conjunto de datos poseía una mayor cantidad de "ruido" que a la red neuronal le costaría discernir y discernía peor. Que al final el resultado era en ambos casos aceptable, pero el primero bastante mejor que el segundo. Y aquí pasa lo mismo, si tú le enseñas a una IA fotos de caras de gatos te podrá distinguir caras de gatos, pero lo tendrá complicado para distinguir gatos de perfil.
En tercer lugar: para razonar hay que ser capaz de inferir conceptos a un nivel al que las máquinas no son capaces. Las máquinas son capaces de detectar patrones que nosotros tardaríamos muchísimo más tiempo en detectar, simplemente porque ellas son mucho más rápidas, pero ahí se quedan. Tú sabes distinguir un camino así esté hecho de tierra, piedra, césped, ladrillo, metal, madera o el material que se te ocurra. Para una IA no necesariamente. Requiere de un entrenamiento muy exhaustivo para que tal cosa pueda suceder y aún así tendrá errores.
En cuarto lugar: las IA tienen, como ya he dicho anteriormente, "alucinaciones", que es el eufemismo que se le ha dado al concepto "errores de bulto acojonantes". No es que una IA sin "alucinaciones" se pueda decir que razone, pero mientras las tengan estará claro que no razonan. Esto es difícilmente (iba a decir "imposible" pero no quiero sonar pretencioso) contestable.
En quinto lugar: gracias por darme la razón. Por supuesto que un cerebro humano es muchísimo más complejo que una IA. El cerebro humano, sea cual sea la ventaja e inconveniente que pueda tener, es capaz de razonar. La IA, con todo lo espectacular que pueda ser lo que consiga, que seguro que nos ayudará a acabar con enfermedades (es lo que más deseo) y otras cosas, no deja de ser una calculadora la hostia de rápida, pero una calculadora al fin y al cabo.
#40 Mientes. Yo no he dicho eso, no he llamado a nadie ignorante por no opinar como yo.
Sigue siendo una falacia de autoridad por tu parte. Las máquinas carecen de intencionalidad propia, sólo devuelven aquello para lo que han sido entrenadas, otra cosa distinta es que el entrenamiento es algo muy sencillo de nombrar pero muchas veces muy complejo de realizar, de hecho es la parte más compleja en mi opinión. Que no quita que el resto de lo que es diseñar una IA lo sea, "simplemente" es la parte técnica. Escoger un buen entrenamiento requiere de ciertas habilidades y capacidades. E incluso una buena dosis de suerte, ahí están las IA que dejan interactuar con usuarios online y se acaban volviendo un pelín fachas. ¿A las que les pasa eso también "razonaban"?
Mira, a nivel práctica universitaria, es decir, a nivel principiante de tercera regional, en su momento tuve que hacer una red neuronal (vamos, te la pone Matlab) para que, una vez entrenada, le pasases una imagen y supiese reconocer dónde estaban los caminos y dónde era campo. Imágenes al estilo google maps de una zona de campiña donde los campos de hierba se distinguían bien del color de la tierra en los caminos.
Ya no entro en que las imágenes se pasaban a b/n para que no hubiera interferencia del color en el entrenamiento, cosa que en la vida real no sería contemplable (salvo para imágenes nocturnas y aún así), pero se me ocurrió hacer el conjunto de entrenamiento con trozos de imágenes de 7x7 pixels. Algunos tenían trozo de camino, otros no. De los que sí tenían había los que eran un trozo de recta, pero teniendo en cuenta que puede ser vertical, horizontal, diagonal "pa'un lao o pa'l otro", luego que si curvas, más abiertas, más cerradas, de tal orientación a cual otra... lo que se te pueda ocurrir.
La parte final implicaba coger cada subconjunto posible(*) de la imagen por satélite del mismo tamaño que los trozos que habías cogido para entrenar, pasarla por la red en modo… » ver todo el comentario
No, mira, mis estudios acerca de IA son muy pocos pero ni siquiera son necesarios para saber que no piensan, que no razonan.
Las dos respuestas mencionadas, sin al menos una explicación eazonada no son más que afirmaciones sin contenido. Las diga quien las diga
Pero si vamos al señor Hinton, la posibilidad de que se deje llevar por "su hina" tiene ciertas posibilidades.
Aunque eso es irrelevante. La IA simplemente es un tonto muy rápido capaz de engañar a algunos
Los magos, los prestidigitadores (como ya dice la palabra) no consiguen hacer que las cosas desaparezcan, son más rápidos de lo que tú eres capaz de oercibir y, si eso, te hacen mirar donde no es.
La IA es lo mismo. Que sea capaz de hacer cosas muy rápido no significa que sepa qué es lo que está haciendo.
#36 Lo dice claro, podrá ser o será, pero a día de hoy nop.
Además de ser un corte muy sesgado de una entrevista que dice lo que quieres oir, del mismo modo de las respuestas de las IAs te has quedado con "no razonan igual" en vez de leer lo de "modelos matemáticos"
He abierto DuckDuckGo que tiene disponible varias Ias a las que le hago la pregunta:
¿Las inteligencias artificiales razonan o responden en base a matemáticas?
las respuestas han sido:
IA Mistral: Las inteligencias artificiales, como yo, no razonan de la misma manera que los humanos. En lugar de eso, operan mediante algoritmos y modelos matemáticos que procesan grandes cantidades de datos. Estos algoritmos están diseñados para identificar patrones y hacer predicciones basadas en esos patrones.
Por ejemplo, los modelos de lenguaje como el mío utilizan técnicas de procesamiento de lenguaje natural (NLP) y aprendizaje automático para generar respuestas. Estos modelos se entrenan con grandes conjuntos de datos de texto, y durante el entrenamiento, ajustan sus parámetros matemáticos para minimizar el error en sus predicciones.
En resumen, las inteligencias artificiales responden a preguntas y realizan tareas basándose en matemáticas y algoritmos, no en un proceso de razonamiento consciente como lo hacen los humanos.
GPT-4o
Las inteligencias artificiales, como los modelos de lenguaje, no razonan de la misma manera que los humanos. En lugar de razonar, responden a preguntas y generan texto basándose en patrones aprendidos a partir de grandes cantidades de datos. Esto implica el uso de algoritmos matemáticos y estadísticos para predecir la siguiente palabra o frase en función del contexto proporcionado.
Aquí hay algunos puntos clave sobre cómo funcionan:
Aprendizaje a partir de datos: Las IA son entrenadas con grandes conjuntos de datos que contienen ejemplos de lenguaje humano. Aprenden a identificar patrones y relaciones en esos datos.
Modelos matemáticos: Utilizan modelos matemáticos complejos, como redes neuronales, que permiten procesar y generar texto. Estos modelos se basan en cálculos matemáticos para ajustar sus parámetros y mejorar su precisión.
#30 Ese es el error común, pensar que genera nuevos conocimientos, lo que genera es una respuesta estadísticamente correcta, que luego nosotros la avaluamos con nuestra conciencia y decimos "Vaya, qué lista" y cuando nos devuelve otra respuesta estadística que es un truño decimos "Vaya, que tonta". Lo que genera no es nuevo conocimiento, sino respuestas, y muy buenas, por que previamente la hemos alimentado de mucho conocimiento previo.
Si enciendes un ordenador con una IA desde cero a la que no le has alimentado con ningún conocimiento, no sabrá ni escribir, pero te soltará estadísticamente las palabras una tras otra, que no tendrán ningún sentido.
#28 No amigo, resolver problemas lo tenemos desde hace aún más y sin necesidad de una IA, una calculadora científica te resuelve problemas si la programas bien, y no por ello razona, no de lejos.
Las IA se basan en el conocimiento volcado en sus bases de datos, ya sean dadas a propósito o tomadas de internet y lo que hace es simplemente dar soluciones estadísticas, los resultados puede que no se les haya ocurrido a nadie, pero no por ello razone, simplemente ha sacado una estadística o un modelo matemático para dar una respuesta.
#20 Ambos, generan sustento bajo las alas, por eso vuelan, no por que tengan músculo o motor, sino que ambos son el medio para generar el sustento en el aire.
#26 "De hecho el trabajo más impactado por la IA a día de hoy es el de los diseñadores gráficos, uno de los más creativos que existía"
Mira, lo siento mucho, pero conozco a diseñadores gráficos y es un trabajo muy repetitivo, una vez tienes un estilo, unas fuentes que funcionan, etc, es sota, caballo y rey