edición general
DonScumm

DonScumm

En menéame desde mayo de 2011

4,96 Karma
762K Ranking
1 Enviadas
0 Publicadas
92 Comentarios
0 Notas
  1. Eso de que puedan comprar España a trozos, es algo que habría que revisar y que no tiene ningún sentido.
  2. #1 un catalan de padres andaluces que quiere la independencia de cataluña en base a desprestigiar a los españoles.

    Si, tu piensas que el Moviendo indepentista catalan es de izquierdas. Esque te tienes que replantear muchas cosas. Empezando porque denominas de izquierdas un movimiento racista fascista con idoles supremavistas sugragado por la burguesía esclavista catalana.
  3. rufián es el único de la izquierda que me cae bien. No se le ve tan extremista
  4. #89 Negativo por seguir con los bulos.

    Dijiste que se basaba en su caché, punto.

    Si no sabes español, pídele clases a ChatGPT.

    La verificación la hace al momento, cosa que no haces tú.

    Lo único que no hace es experimentar con objetos reales, cosa que no haces tu tampoco.

    Lo de matizar le puedes pedir que no lo haga. Pero deberías hacerlo tú para no soltar bulos y falsedades. Ves por qué lo hace GpT?

    Te quedaste en 2022 y eres más frustrante que cleverbot. Qué cruz.
  5. #73 yo no he dicho que no pueda acceder a fuentes externas. No montes películas en base a lo que no digo. Me sorprende lo habitual que se está volviendo esa tendencia en los últimos años, llenando de ruido cada comunicación.

    Chatgpt matiza y añade mucha paja. A mucha gente le cansa la falta de concreción que sí tenemos los humanos. ¿Es necesario matizar todo en cada comentario? NO!!! A buen entendedor...

    Y si quieres aclarar algo que no haya puesto y esté relacionado con lo demás con gusto lo hago.

    Esas fuentes externas deben estar almacenadas en alguna parte y si hay una errata se la come, porque no tiene capacidad para verificar la información por sí misma. En todas las bases de datos se cachea información para generar respuestas más rápidas.
  6. #72 Has dicho que usa el prompt de usuario y la info que tiene cacheada, lo cual es falso, porque sí puede acceder a fuentes externas (y lo hace) en tiempo real. De hecho, si lo hubieras hecho tú (asumiendo que tienes esa funcionalidad como humano) seguramente no habrías escrito el comentario como lo has escrito. Es más, GPT matizaría su respuesta razonando de forma excelente en comparación (y no es una ofensa, solo describo la realidad).

    En lo que sí concuerdo es en que no puede experimentar... con objetos físicos. Porque sí puede hacerlo con datos. Por lo tanto, sí puede verificar por sí mismo aquello que vaya más allá de los objetos físicos, como es justamente la lógica y los razonamientos. Un razonamiento es una cosa y un experimento o prueba empírica (lo que tú describes) es otra. No vamos a traer ahora la guerra entre racionalistas y empiristas, eso lo explica ChatGPT mucho mejor que tú y que yo.
  7. #70 pero si me estás dando la razón...

    Las "fuentes externas" son más datos. El algoritmo determina qué fuente es más fiable. Y la investigación avanzada es lo que decía de los metadatos, es decir datos a partir de datos.

    Para comprobar la gravedad tú puedes coger un objeto, dejarlo caer, grabar su caída y medir la aceleración en el vídeo. Y a partir de ahí hacer todo tipo de experimentos para validar la "realidad".

    Ninguna ia a día de hoy puede interactuar con la realidad para verificar sus fuentes de información.

    Para hacer análisis de datos masivos para identificar patrones y gaps en series es donde las ias están marcando un antes y un después.
  8. #38 GPT yo uso principalmente el modelo de razonamiento o3 y con ese estoy bastante contento, la verdad.

    Hace tiempo era tontísimo y yo también me cabreaba la de dios hablando con él. Hoy en día ya le tengo más respeto que a un humano. Algo habrá hecho.
  9. #49 Como tu patrón soltando las mismas chorradas en todos los comentarios? Hasta cleverbot aportaba más que tú.

    Si tienes ganas de llorar porque cualquier IA es más interesante que los eructos choriceros que sueltas en Menéame, puedes comprar kleenex de sobra en el supermercado. Ya no estamos en pandemia, hay stock. Pregunta a la IA si no me crees.
  10. #21 <<atos basados en probabilidades estadísticas exclusivamente no es razonar.>> pero es que no hacen solo eso. También razonan. No son un tensor gigante para encontrar la siguiente palabra estadísticamente a partir de las entradas. NO SON ESO por más que se repita o se de esa imagen. Porque al construir redes de tensores estructurados se estaba generalizando el funcionamiento y que por más complejo que fuera hacian más de lo mismo. Pero se ha comprobado que es mentira que hagan más de lo mismo, que van aprendiendo a decidir de forma anidada, en red y estructurada para cualquier tipo de acción o actividad, sea la que sea y a como lo aprendemos y las enfocamos nosotros. Lo cual sorprendió bastante

    transformer-circuits.pub/2025/attribution-graphs/biology.html
    transformer-circuits.pub/2024/scaling-monosemanticity/index.html
    transformer-circuits.pub/2025/attribution-graphs/methods.html

    Etc. Que no. Que estáis equivocadísimos de plano
  11. #4 Lo que tú digas...
    Por esa regla de 3 tú tampoco
  12. #14 No, el que no razona eres tú, que has dicho "por esa regla de 3" y no he mencionado ninguna regla.
  13. #12 En cambio una red neuronal artificial puede "saberlo" en parte. Sabemos de momento como funciona el cerebro de la larva de la mosca melanogaster y 12 costó de trabajo. Funciona como las IAs incluso hace las operaciones de trasnsformers pero organiza físicamente más adaptado a las acciones. Pero podemos enseñar a una IA imágenes y que se haga sus estructuras neuronales respecto a ellas. A personas las mismas imágenes y que se hagan las suyas. Y cuando a personas se les muestran algunas de esas imágenes o se las hace recordar y máquinas de resonancia magnetica funcional leen la actividad del cortex visual mientras el cerebro genera sus espacios latentes internos equivalentes a lo que expresan las imágenes se le puede pasar esa info a las IAs ya educadas para que hagan su propio espacio latente y haga su propia difusión en sus estructuras neuronales dando un 90% o más de acierto. Acierto que implica que se ha de funcionar internamente de forma extremadamente parecida.

    sites.google.com/view/stablediffusion-with-brain/?pli=1

    Otra es que redes neuronales aprendan los patrones que utiliza un cerebro humano, generando sus propios patrones como si fueran un diccionario personalizado. También funciona

    Y ya se leen sonidos que escucha alguien incluso que se imagina alguien, además de imágenes

    Está más que claro que es el camino correcto y no es no tener ni idea sino que la básica coincide
  14. #55 No.

    Si hubieras estudiado un mínimo de cómo se entrenan, aunque sea cómo fueron al principio, sabrías que no.

    Yo no estudié mucho de redes neuronales, pero eso lo sé.

    Y más aún, incluso si estuviese modelizada a partir del cerebro humano, no significa que haga lo mismo.
  15. #53 Si razonan Ya, sí, y como lo hacemos nosotros. Primero unas reglas lógicas sencillas impuestas en el funcionamiento y el resto de figuras lógicas se van aprendiendo a medida que se adquiere el control del lenguaje DE LA MISMA FORMA

    y #54
  16. #45 <<nto si parezco maleducado pero esta discusión carece de sentido. Las IAs generativas no intentan emular el comportamiento del cerebro humano y>> No pareces maleducado para nada pero perdona pareces una ia Porque ahora mismo actúas como sabemos que funcionan estas.

    Fijate precisamente en tus palabras:
    <<. Las IAs generativas no intentan emular el comportamiento del cerebro humano y>>
    Exactamente no lo intentan pero lo han conseguido sin querer porque es lo que funciona como hizo la evolucion biológica

    Y es que por ejemplo los transformers son una solución a un problema NO se pretendía simular el funcionamiento del cebrero que se desconcía en parte

    pero al analizar el cerebro de la larva de la mosca de la fruta durante un mapeo que ha tardado 12 años. Tachan hace las funciones de los transformes utilizando una neurona y un astrocito de la glia a la par. La misma puñetera solución y funciona exactamente igual que las IAs excepto una única diferencia el…   » ver todo el comentario
  17. #56 Nope.
  18. #57 No funcionan igual. Le estás dando a una máquina características humanas que no tiene.

    La maquina se basa en lo probable, no en lo real. Lo probable y lo real suelen ir de la mano, pero ni mucho menos siempre.
  19. #49 tu tampoco razonas y solo reconoces patrones

    ¿como se supone que razonas tu? ¿por ciencia infusa?
    ¿ves como tienes prejuicios y fuertes de entrada antes de analizar todos los detalles?


    Tu razonabas con identidad, no contradiccion, reduccion al absurdo, suposicion (imaginar), disyunción exclusiva y modus tolens y NADA MAS ni siquiera eras capaz de hacer silogismos imaginando a los 2 años ni a los 3 ni a los 5 (y eso es fácilisimo de añadir a una IA en el código mismo si se desea porque es trivial añadirlo con tablas de verdad). Hasta que fuiste creciendo y adquiriendo el lenguaje y a medida que adquirias pericia en el uso del lenguaje (junto las operaciones que ya dominabas de fábrica más ciertos heristicos que tenemos y que nos hacen sesgar y demás) mediante el proceso de patrones y adquisición de lenguaje fuiste apendiendo a razonar a partir de los 6 años para adelante

    FUNCIONAS IGUAL tengas el juicio que tengas que es más un prejuicio


    Y además #56 y #54
  20. #52 Parten de lo mismo que ahora tu mismo estás racionalizando y argumentando la decisión que has tomado

    Exactamente parten de los mismos procesos que te están haciendo escribir este comentario y defender tu postura ya tomada. Funcionas igual. ¿sin atender a otras cosas? Atienden a TODO lo que están procesando internamente como tu

    Si razonan Ya, sí, y como lo hacemos nosotros. Primero unas reglas lógicas sencillas impuestas en el funcionamiento y el resto de figuras lógicas se van aprendiendo a medida que se adquiere el control del lenguaje DE LA MISMA FORMA

    y #54
  21. #40 Tu argumento se cae por su propio peso.

    No razonan, sus alucinaciones y demás errores no parten de "idad de pinza" u otros motivos humanos, parten de que sólo aplican operaciones matemáticas sin atender a otras cosas o dándole muy poco peso.
  22. #17 Que las redes neuronales sesgan y racionalizan los sesgos a menudo. Lo que hacemos los humanos y por eso meneame es pura discusion y la prueba irrefutable de que funcionamos igual. Otra cosa es que precisamente las creencias sesgadas de alguien le lleven a negar y justificar lo que se ve todos los días durante años en los comentarios de meneame de gente racionalizando el juicio de probabilidad que ha hecho su creencia una y otra vez y otra vez a pesar de toda la info que se ponga que le refute la idea.

    Si somos igualitos que las IAs incluso en eso.
  23. #16 En realidad si razonan. Y esas alucionaciones LAS TENEMOS LOS HUMANOS.
    Mira las discusiones en meneame y como se racionalizan creencias que se toman por primera impresion y luego un sostenella y no enmendalla racionalizando en lugar de razonar. Funcionamos como las IAs actuales. Si ellas no razonan, nosotros tampoco

    Además transformer-circuits.pub/2025/attribution-graphs/biology.html

    Se puede ver más trabajos en la web. Está claro que son un claro reflejo de como funcionamos nosotros. << Que lo que hacen es extraer patrones a partir de cálculos estadísticos y los humanos hacemos bastante más que eso.>>

    hacen más que extraer patrones de calculos estadisticos, modelizan a base de decisiones anidadas y entrelazadas y acaban decidiendo acorde al modelo o sea que aprenden . Y de hecho funcionamos igual Primero de base extraemos patrones a parir de información estadistica de forma automatica (eso que denominamos intuición) y luego modelamos y razonamos posteriormente y la mayor parte de veces racionalizamos en lugar de razonar. Y las IAs también ya lo hacen
  24. #60 Negativo por bulo. Te has quedado en 2022 chaval.

    Cualquiera de los últimos modelos de GPT utilizan también fuentes externas, incluso puedes pedirle investigación avanzada, lo contrastan con sus propias bases de datos, afinan y mejoran las respuestas a lo largo de toda la conversación. Su único límite es acceder a contenido propietario que necesite acceso especial obviamente, pero se lo puedes dar tú.

    Ahora mismo todavía no he encontrado un humano experto en su campo que me aporte más a nivel de conocimiento que los modelos de razonamiento de GPT. Como máximo se quedan a su nivel en algún que otro "topic".
  25. Como ya se ha dicho una ia no puede razonar porque no tiene capacidad para verificar la información.

    Cómo percibe la realidad una ia? Con el prompt de usuario y con la info que tiene cacheada.

    Con eso puede generar metadatos que le ayuden a validar una fuente con otra.

    Para que una ia razone, necesitaría una serie de dispositivos para recoger información externa e interactuar con objetos. Eso llevaría a otros problemas complicados de resolver como evitar la generación de datos infinitos.
« anterior123457

menéame