edición general
DrLivingsToon

DrLivingsToon

En menéame desde mayo de 2011

4,35 Karma
767K Ranking
1 Enviadas
0 Publicadas
171 Comentarios
0 Notas
  1. #136 En la fase de entrenamiento si.
  2. #161 Ambas cosas son necesarias.
  3. #131 No tenemos ni la menor idea de cómo funciona una neurona biológica ni de qué habla con las neuronas vecinas.
  4. #153, pero sí que estamos bastante seguros de que el comportamiento inteligente que demuestran los cerebros biológicos surge de la interacción de miles de millones de neuronas, no de lo que hace una neurona a nivel individual.
  5. #126, es una simplificación para mostrar que no se puede describir el comportamiento que emerge del cerebro humano explicando qué hacen las células que lo componen a nivel individual independientemente del nivel de detalle con el que las describas.
  6. #156 Un transformer no tiene ningún concepto nuevo. Lo que hace es permitir el proceso en paralelo de secuencias de tokens. Es una optimización. Es un tema de rendimiento.

    hay otro concepto asociado que es el cómo quieres impulsar el avión, con una hélice a pedales o con un motor a reacción

    Todos ellos consisten en empujar gases hacia atrás. La diferencia entre una hélice y un reactor no es tanta.
  7. #92 si lo quieres reducir todo a pesos, sesgos y activadores entonces sí. Pero es como decir que un avión F35 es en esencia el avión de los hermanos Wright, de un simplismo tan grande que solo demuestras que no entiendes nada de lo que hay detrás de él
  8. #113 Esto no es así de ninguna manera. Un humano aprende cosas, lo que quiere decir que crea conceptos, lo que es casi lo mismo que decir que entiende de lo que habla. Por lo tanto un humano puede hacer y hace mucho mas que una IA. Un humano puede razonar y llegar a conclusiones válidas la gran mayoría de las veces.

    En cambio un LLM de estos no comprende nada de lo que dice y no tiene ninguna capacidad de razonar. En consecuencia cualquier cosa que diga carece de toda fiabilidad y las "alucinaciones" son algo constante. Esto impide que una IA pueda sustituir a un humano en ningún trabajo. Ni siquiera puede ayudarle ya que el coste de estar supervisando lo que la IA hace es ahora mismo superior a hacer las cosas a mano.

    Pero aún así tu argumento es muy válido. Dado lo mucho que hablan estos trastos, cabe preguntarse si al menos una parte de la cognición humana (desde luego que toda no) es algo parecido, es decir una repetición sin pensar de cosas oidas y conocidas. Es muy posible que algo de esto haya.

    Así pues...

    ni hay ninguna magia ni alma dentro de nosotros

    Esto está claro que no. La magia no existe y eso de las almas es magia. Las religiones son falsas de toda falsedad y todo mago es un estafador.

    Lo que hay dentro de nosotros es una máquina muy sofisticada que hace cosas puramente deterministas. Es más compleja que un LLM, pero no un poco más, sino una barbaridad más.
  9. #113 Pues fíjate que a mí los LLM me han recordado a ciertos consultores y vendedores de humo que he conocido. Superficialmente, aparentan saber mucho sobre algún tema (usan el vocabulario específico, repiten frases típicas del dominio,... ), pero, a la que profundizas un poco, se les ven las costuras.
  10. #113, ciertamente los LLM han dado un impulso fuerte al materialismo. Es cierto que hay cosas que creo que todavía no están del todo cerradas, como los cualias y la experiencia subjetiva, pero ciertamente, la capacidad de razonar que están demostrando los LLM y otras arquitecturas generativas es algo que ha sido una sorpresa que nos hace intuir de dónde surgen los comportamientos inteligentes que emergen del cerebro biológico.
  11. #99 Justo por eso el debate de la IA tiene dos ramas.

    Una, lo que ya se ha comido Klarna y otras. Cuando una nueva tecnología aparece, el hype suele hacer bola. Los que tienen interés en ello, los que necesitan vender un discurso, el que está encantado de comprarlo, etc. Siempre hay una fase de maduración en la que la fantasía cae y quedan las posibilidades reales. Cuando las había.

    Otra es si el futuro acabará trayendo lo que se promete. El truco de hacer una demostración vitaminada, o vender que hay avances para justificar más inversión para completarlos, es muy viejo. El problema es que los avances reales son muy lentos. Se compara esta burbuja con la de las puntocom, pero hay diferencias importantes de partida. La más importante es que internet ya existía. Lo que pasó en los 90 fue que tecnologías que ya existían en grandes empresas y administraciones públicas, poco a poco maduraron y se volvieron lo bastante asequibles como para llegar al gran público. No hubo apenas…   » ver todo el comentario
  12. #109 Entonces razona claramente:

    tr. Exponer razones para explicar o demostrar algo.

    intr. Ordenar y relacionar ideas para llegar a una conclusión.

    intr. Exponer razones o argumentos.

    ¿no hace esto?
  13. #107 que te he dicho que el razonamiento que presentan viene de otros mecanismos, no del propio LLM
  14. #177 que leas mi primer comentario, que ahí te doy un ejemplo de mecanismo de razonamiento. Otro ejemplo de mecanismo es el ReAct arxiv.org/abs/2210.03629
  15. #245 En mi primer comentario #105 ya te he explicado qué cosas NO hace una red neuronal. Explicación basada en hechos, no en creencias.

    Pero como la realidad no coincide con tus creencias, pretendes que no te han respondido nada. xD Eres infantil a más no poder, chico.
  16. #184 A ver, campeón, que no te enteras. Dices que la IA no maneja conceptos porque solo son números, pero es que tu cerebro también solo maneja potenciales electroquímicos como te han explicado.. La semántica no existe “dentro” de la neurona igual que no existe “dentro” del embedding, emerge del patrón de relaciones. Pretender otra cosa es como exigir que una célula tenga opiniones.

    Que dices de otro que se agarra al mecanicismo, pero eres tú quien lo usa cuando te conviene y lo ignoras cuando no. Si el mecanismo invalida el concepto en los LLM, también lo invalida en ti. Si no lo invalida en ti, explica por qué. Y no vale repetir lo de “por definición”, que eso no es un argumento ni sirve para nada más que para demostrar tu falta de entendederas.

    Sueltas que la IA “no sabe de qué habla” pero tampoco explicas por qué esa supuesta “saberidad” sería un requisito para razonar. Solo asumes que debe ser así porque en tu cabeza suena lógico. Pues crack, los modelos resuelven problemas…   » ver todo el comentario
  17. #192 Que tú no entiendas lo que te están diciendo no significa que no te lo estén razonando, señor ”ad lapidem”. xD

    De hecho es peor, los creyentes sois impermeables a cualquier razonamiento, preferís aferraros a vuestras creencias sin sentido y sin base.
  18. #184 Tus juicios dicen más sobre ti que sobre mí. Disfruta tu victoria ad lapidem.
  19. #132podría ser yo una IA pero sin inteligencia”.

    Totalmente de acuerdo con la segunda parte de esa posibilidad. xD

    Es tremendamente hipócrita que preguntes sobre inteligencia, razonamiento y conceptualización... y en cuanto te responden recurras al mero mecanicismo de impulsos eléctricos. Eso no es ”introducir conceptos complejos”, es una huida hacia adelante totalmente cateta.

    Lo tuyo es como pretender que está lloviendo en tu ducha porque cae agua. No, chiquillo, la lluvia es otra cosa, y bien claro que está. Igual que la inteligencia y el razonamiento no se manejan con interrelaciones meramente numéricas, sino con conceptualizaciones que una IA es incapaz de realizar por definición. Por mucho que la mecánica subyacente sean impulsos eléctricos, lo cual no tiene que ver una mierda con el tema que estamos tratando.
  20. #187 Decir que el cerebro no maneja conceptos sino potenciales electroquímicos era un respuesta a la objeción "un LLM no maneja conceptos sino sólo números".
    Ya lo había pillado, gracias.

    Y esa respuesta solo funciona en tu cabeza. Una LLM gestiona esos números del modo que sus creadores, nosotros, han decidido para conseguir los resultados que nos ofrece la LLM. Una LLM ejecuta ese algoritmo y produce los resultados que puedes ver.

    El cerebro humano funciona con impulsos eléctricos y química..... pero no tenemos una idea mucho más profunda que esa sobre su funcionamiento. Por lo que pretender que estamos "fabricando una réplica" es no solo pretencioso, si no absurdo.

    MI respuesta de que "una piedra y un cerebro son esencialmente lo mismo, una interrelación entre átomos" iba en la misma línea.
  21. #162 xD xD xD

    Y sueltas esto despúes de decir "El cerebro no maneja conceptos sino sólo potenciales electroquímicos."

    Y tan pancho.

    Que ridículo...
  22. #132 El cerebro no existe. Es lo mismo que una piedra. Un conjunto de átomos conectados...

    Puestos a soltar chorradas...
  23. #155 ¿De donde exactamente sacas que no sé definir lo que es un concepto? Por favor, no extiendas tus propias limitaciones a los demás.

    Si bien es cierto que no lo he hecho aquí, eso no significa que no pueda. Claro que puedo.

    Por supuesto que sé cómo se implementa un LLM. Es por esto que sé con seguridad que no pueden razonar. Si te miras sus outputs, eso es muy engañoso.

    end-of-conversation
  24. #132 La mente humana maneja conceptos. No es necesario entrar en cómo se implementa eso, entre otras razones por ser totalmente desconocido.

menéame