#9 Te has marcado una falacia genética: es.wikipedia.org/wiki/Falacia_genética
Además, eres muy cándido si crees que no existen aspectos antropológicos relevantes en el cambio climático.
#115 Estás muy equivocado y esto no es ya de inteligencia artificial sino de síntesis evolutiva. Claro que has sido diseñado (moldeado) con un objetivo muy claro que es la conservación de un código genético a lo largo del tiempo.
#113 En qué crees que se diferencia eso de lo que haces tú, por ejemplo, al margen de que tú y tus objetivos -o "aquello para lo que has sido diseñado" -como tú lo llamas- han sido moldeados por la evolución)? Qué crees que significa eso de "decidir hacer"?
#111 Sigues reduciéndolo todo a un absoluto todo o nada, como ya he advertido desde mi primera respuesta. Además, basado en una creencia irreal. Puedes seguir buscando ejemplos absurdos pero no estamos hablando de palos sino de sistemas que adaptan su comportamiento, toman decisiones basándose en escenarios futuros que no han visto, aprenden y trasladan conocimientos entre dominios diferentes.
#108 Las conclusiones se alcanzan a partir de conocimiento técnicos precisos, no de trucos semánticos y creencias. Si no comprendes, por ejemplo, lo que hace scinet, y renuncias a comprenderlo, no hay base para una discusión informada.
#105 Scinet arxiv.org/abs/1807.10300 ha inferido las leyes físicas de algunos sistemas sin información previa sobre su dinámica explícita. Únicamente proporcionándole estados del sistema. Por ejemplo.
No comprendo cuál crees que es la diferencia exactamente entre la inferencia que lleva a cabo una máquina y un humano por ejemplo, al margen de contexto, complejidad. Es evidente por tu texto (te limitas a afirmar enunciados dogmáticos sin explicación) que crees que hay alguna diferencia cualitativa, pero no sé cuál es.
#101 Estamos hablando de IA o únicamente de ChatGPT? Hoy en día tienes muchos ejemplos de sistemas que exhiben zero-shot learning, que son capaces de deducir leyes físicas y predecir estados futuros sin información contextual ni reglas explícitas, de establecer estrategias y micro-objetivos (por ejemplo diseñando sus propios curricula de aprendizaje), de extrapolar, planificar y tomar decisiones, resolver tareas no vistas, fingir alineamiento en base a metas futuras... La bibliografía está llena.
#89 Me refiero a que existen una gran cantidad de sistemas de diferentes características y complejidad que a su vez exhiben un rango enorme de comportamientos. Algunos de estos comportamientos constituyen lo que entendemos por "razonamiento" y van desde algunas bacterias que "aceleran cuando pisas el pedal" (se mueven cuando sus diminutos motores moleculares se activan en respuesta a gradientes químicos) hasta la cognición humana que es capaz de planificar, anticipar estados propios y externos, aprender, etc (aunque incluso entre humanos no se manifieste en el mismo grado). Entre ambos están los grandes primates, con una comunicación social compleja; los pulpos, que usan herramientas...
Lo que digo es que, a partir de ciertos niveles de complejidad y bajo ciertos requisitos, emergen una serie de características observables que no son del tipo todo o nada (no es el "razonamiento absoluto" o su ausencia total) y que ni siquiera tienen que darse a un tiempo.
Algunas de estas emergen en umbrales funcionales más o menos claros, pero la idea principal es que la cognición no es una dicotomía entre ejemplos triviales, sino un continuo.
#18 Puedes formularlo como un problema de programación entera y es susceptible de ser resuelto mediante algoritmos branch and bound o branch and cut deterministas. Otra cosa es que sea... NP-hard? y explotará para cualquier caso no trivial.
#78 No, estoy diciendo (#77) que en algún punto entre un sumador binario y un cerebro humano hay una transición. #80 Si vas a repetir lo mismo tres veces, es más fácil seguirlo si lo reduces a un único comentario.
#76 Sí. Y aunque la aritmética de punto flotante es un campo fascinante en sí mismo, lo que intento comunicar es que, entre tu calculadora y un cerebro humano, hay algún punto en el que el fenómeno deja de ser trivial. Y es interesante explorarlo, no negarlo basándose en argumentos retóricos o morales.
#71No has establecido nada porque tu definición es circular.
No es verdad, la cantidad de evidencia de cognición e inferencia sin acceso consciente es masiva en ciencia cognitiva.
Detrás del "yo creo" lo que hay es el reconocimiento honesto de que la evidencia de la que dispongo es anecdótica, no sistemática, es una opinión y no es relevante para mi objeción, sólo una nota marginal.
Me he limitado a pedir alguna evidencia, criterio o definición de tu afirmación. Has dado 0.
Yo no quiero pensar nada, me he limitado a exponer por qué tu afirmación es lógicamente incoherente.
He trabajado en redes neuronales desde el 98 y por ahí más o menos en aprendizaje clásico, creo que la moda no me va a afectar demasiado en ese aspecto.
#69 Sigues repitiendo que "ejercer razonamiento" (terminología ad hoc) es razonar conscientemente apelando a la experiencia subjetiva. Eso es tautológico y circular, pero sigues sin darme un criterio de falsabilidad (e.g. alguna característica observable).
"Comprender su contenido" tampoco es un criterio práctico. En primer lugar, una parte sustancial de los procesos cognitivos humanos suceden sin acceso consciente. En segundo lugar, de esto no puedes estar seguro y necesitaría otro criterio de falsabilidad.
Yo creo que algunos sistemas "sí comprenden el contenido" en cierto grado. Puede que sea una cuestión semántica, pero (otra vez) sin definiciones, cualquier discusión carece de sentido.
#65 Existen gran cantidad de agentes autónomos que mantienen cierta autonomía, pueden fijarse metas, elaborar sus propios curricula, planificar, ejecutar y retroceder y autoevaluarse y no poseen consciencia.
#63"El razonamiento es una capacidad para la que se requiere consciencia, algo de lo que carecen las IAs." (en #21).
Lo entiendo, aunque esté expresado pobremente y de forma ambigua, pero no dejas de mover la portería.
#59 Tu tesis inicial fue “las IA no razonan”. Ahora aceptas que “ejecutar razonamiento" es equivalente a "razonamiento computacional"... No va de dialéctica, sino de explicarse con consistencia y claridad. Yo me limité a indicar al principio que, sin un criterio falsable que no has proporcionado, tu afirmación no significa nada.
#57 Y si me mandas una publicación académica en lugar de dos opiniones, que las hay por docenas sino cientos? El preprint de los tíos de Apple ya ha sido superado. Se han propuesto explicaciones plausibles alternativas y fallas (más relacionadas con la conclusión que con el fenómeno en sí, que no deja de ser muy interesante).
Y ya te he dicho que eso no es una definición. Sólo es inventarte dos términos para decir que hay formas de razonamiento que no son zaonamiento de verdad y desplazar el problema de la definición de razonamiento (que puede ser unívoca y clara) a la definición de un fenómeno emergente que ni siquiera se comprende.
No me has dado una definición ni has explicado nada. Has definido "ejercer razonamiento" como "pensar con consciencia", por lo tanto, pensar sin consciencia no es razonar (según tú), es una petición de principio envuelta en un razonamiento circular basada en experiencias subjetivas.
#48 Y tiene razón (aunque es incompleto, los LLMs actuales tienen cierta capacidad para razonar en un sentido formal). Pero tú has definido "ejercer razonamiento" (signifique lo que signifique eso) como "pensar conscientemente". Al margen de que ahí existe una petición de principio, ahora te estás contradiciendo.
#43 Tampoco lo hacen muchos humanos...
Existen una gran cantidad de sistemas que funcionan como agentes hasta cierto punto autónomos. Algunos muy sencillos, con metas autoimpuestas o emergentes, en sus contextos reducidos.
Aunque creí que estábamos hablando de razonamiento lógico, no de agencia. Claro que no lo has definido y te limitas a ir poniendo condiciones cada vez más restrictivas para lo que tú consideras que es "razonar". Empezamos con que un sistema de inteligencia artificial no es capaz de razonar pero ahora tiene que exhibir agencia y consciencia (condiciones, por cierto, que no se exigen siquiera a toda forma de razonamiento humano).
Conoces la falacia del patio y mota?
Además, eres muy cándido si crees que no existen aspectos antropológicos relevantes en el cambio climático.