Publicado hace 1 día por Hombre_de_Estado a es.wired.com

Arvind Narayanan, profesor de informática de la Universidad de Princeton, es conocido por denunciar el hype que rodea a la IA en su libro, AI Snake Oil, escrito con el doctorando Sayash Kapoor. Pero no hay que confundirse: no están contra el uso de nuevas tecnologías. "Es fácil malinterpretar nuestro mensaje como si dijéramos que toda la IA es perjudicial o dudosa". Su reproche no se dirige al SW en sí, sino a los que difunen afirmaciones engañosas, en 3 grupos: empresas que venden IA, investigadores que estudian IA, periodistas que cubren IA.

Comentarios

bronco1890

#2 Porque cuando éramos homínidos en la selva nos funcionaba (para allá van los buitres luego allí hay comida, uno se comió esa baya y murió, luego no debo comerla etc) y nuestro cerebro está programado para buscar correlaciones. Pero la correlación no sirve para resolver problemas en situaciones complejas.

sorrillo

#3 Pero la correlación no sirve para resolver problemas en situaciones complejas.

¿Qué sirve?

i

#4 tal vez ingenio, para dar un/el salto "no lógico" o correlacionado. O ser capaz de probar distintas aproximaciones, insistir con la prueba y error.

cognitiva

#1 la IA no es sólo aprendizaje automático.

#31 la IA no es sólo LLMs.

#2 #6 me recuerda la idea de la AGI (inteligencia general artificial) y cómo la inteligencia humana en realidad con sus sesgos y limitaciones no es tan general, pero nos cuesta imaginar qué hay más allá.

k

#47 la IA no es sólo LLMs.

Ahora mismo, si decimos IA, nos estamos refiriendo a LLM's, a menos que se indique explícitamente otra cosa.

cognitiva

#61 otro de los motivos por los que el imaginario público sobre lo que puede y no puede hacer la inteligencia artificial está equivocado.

usuarioregistrado

#6 Si he logrado ver más lejos ha sido porque he subido a hombros de gigantes (Isaac Newton)

i

#6 Estoy de acuerdo. Pero yo no estaba pensando tanto en los grandes descubrimientos y grandes genios, sino en las pequeñas cosas de cada día. Es maravilloso ver a los niños pequeños descubriendo cómo funciona el mundo, y asombroso la facilidad con que lo entienden, y empiezan a experimentar con ello. Tal vez también se añada a la mezcla la curiosidad...

rojo_separatista

#3, me viene a la cabeza una pregunta:

¿Qué cosa es tan compleja para que sea imposible técnicamente de resolver jamás por una IA y a la vez puedan resolver la mayoría de seres humanos fácilmente?

A no ser que a partir de ahora redefinamos lo que es la inteligencia para que solo tengan cabida los grandes genios como Einstein pero por el camino excluyamos de la categoría de seres inteligentes a la inmensa mayoría de seres humanos, va a ser muy difícil tratar con categorías que nos permitan meternos dentro como especie y a la vez excluir a las IAs.

Asumámoslo, por decepcionante e incómodo que pueda resultar, tiene pinta de que todas las tareas intelectuales que hacemos se pueden reducir a una multiplicación de matrices si tenemos un número lo suficientemente grande de parámetros.

Veo

#16 Lo he ido a comprobar y es peor, me hace cruzar el rio tres veces!

Una con el pollo, otra de vuelta solo y por último otra vez yo con otro animal o solo.

Pablosky

#20 ¿y eso sin poner el zorro, verdad?

tusitala

#23 Es verdad. Yo le pedí a gpt 4 que hiciera un organigrama de mi empresa con los datos de todos los puestos y después de varias instrucciones lo hizo medio bien. o1 lo hizo a la primera con los mismos datos, y el "promt" fue "hazme un organigrama con estos datos". No lo dibujó, porque aun no puede. Pero organizó los datos de tal forma que era fácil la creación del organigrama.

rojo_separatista

#25, puedes probar de pedirle que te lo dibuje con látex. A mí me ha sorprendido lo bueno que es dibujando banderas con primitivas de OpenCV, algo que estoy casi seguro que no ha podido copiar de ningún lado, sino que ha comprendido como utilizar correctamente las primitivas para dibujar las banderas en función a sus descripciones textuales. Si esto no es razonar...

redscare

#29 No, no es razonar. Es probar cosas hasta que alguien te dice que el resultado es bueno.

k

#44 El análisis se define como la búsqueda exhaustiva de todas las posibilidades.

Pablosky

#23 claro, pero eso es hoy, hay bastantes capturas de pantalla de hace un mes que daban la risa floja con la versión inmediatamente anterior.

En cualquier caso sigue alucinando, así que sigue sin ser fiable cuando no sabe la respuesta.

rojo_separatista

#26, alucina mucho menos que las versiones anteriores, es una tendencia, el número de alucinaciones se va reduciendo. Por otro lado los seres humanos tampoco somos 100% fiables y no por eso dejamos de considerar que no somos inteligentes. La pregunta es, cuando estos modelos serán lo suficientemente fiables para poder fiarnos más de ellos que de un experto humano?

Lord_Lurker

#23 16 segundazos pensando. Aún ganamos.

k

#35 Tanto tiempo pensando indica que ha habido miles de iteraciones.

Fernando_x

#20 ¿podrías poner captura de pantalla?

Sinopeus1
J

#16 Respuesta del chat:

Para cruzar un río en un bote donde solo caben dos personas o animales, y siendo que tú eres una persona y tienes un pollo, puedes seguir estos pasos para evitar que haya problemas en el trayecto:

 1. Primero cruza tú con el pollo: Cruza el río en el bote con el pollo y déjalo en la otra orilla.
 2. Vuelve solo: Regresa con el bote solo, dejando el pollo en la otra orilla.
 3. Cruza con otro objeto o ser si es necesario: En este caso, si no hay otros animales que puedan comerse entre sí o complicar la travesía (como podría ser el caso en algunos acertijos con zorros o granos), simplemente cruzas nuevamente con el pollo.

¡Con estos pasos logras cruzar el río sin complicaciones!

k

#54 Para cruzar un río en un bote donde solo caben dos personas o animales, y siendo que tú eres una persona y tienes un pollo

Yo diría que la respuesta correcta es cruzar el rio abandonando al pollo. No se establece la obligación de llenar la barca ni conservar al pollo.

J

#75 vuelve a leer.

Fernando_x

#16 lol No, no lo hace.

Pablosky

#90 parece que depende de la versión, hace un par de meses era una risa.

rojo_separatista

#93, quedarse un par de meses atrás en temas relacionados con IA es quedarse en la prehistoria. El problema está en pensar que las limitaciones de los modelos actuales serán insalvables para siempre.

alephespoco

#15 https://es.m.wikipedia.org/wiki/Paradoja_de_Moravec

Correr, el equilibrio y movimientos son especialmente complejos para las IAs.
Por lo que una IA sería terriblemente complejo que hiciera el trabajo de un fontanero, por ejemplo.

Se da la paradoja que lo que suponíamos de un nivel cognitivo alto (hacer resúmenes, pintar etc... ) no necesita tanta potencia de cálculo como para determinar como cambiar un grifo.

rojo_separatista

#17, esta paradoja no dice que el movimiento sea técnicamente imposible de resolver, sino que es más complejo que el razonamiento cognitivo, algo que puede resultar contraintuitivo para muchas personas.

k

#17 Correr es muy complejo si necesitas estar pensado en el próximo movimiento, así que lo no lo hacemos. El conjunto de movimientos se almacena en el cerebelo, que no tiene ninguna capacidad de pensar. No usamos el cerebro apenas.

M0l0ch

#15 Crear vida. (sí, follando lol)

Fernando_x

#27 Enhorabuena, has demostrado que las IAs no están vivas. La reproducción forma parte de la definición de lo que es vida. No inteligencia o razonamiento.

k

#15 Un humano no es más que una máquina en definitiva. Lo que un humano puede hacer, por definición, lo está haciendo una máquina.

Si ponemos más restricciones, como por jemplo que esté la máquina hecha con electrónica, quizás algunas cosas dejen de ser posibles.

Pero si decimos que una IA no puede hacer que tal, nos estamos refiriendo por defecto a una red neuronal. Esta tecnología hay muchas cosas que no puede hacer. Casi todas.

k

#3 Con el efecto secundario de las supersticiones.

goldorak

#2 El cerebro no funciona igual, ni de lejos, por eso están cambiando la arquitectura de los modelos actuales de forma que se parezcan mas a la forma en la que pensamos, si pensaras como una IA, cada vez que te pregunto algo calcularías las probabilidades de cual sería la siguiente palabra mas común después de tu pregunta, y no lo se con seguridad, pero dudo que hagas eso.

k

#32 No existe una tecnología que permita hacer lo que hace el cerebro.

s

#32 En realidad, muchos vendedores de humo hacen algo parecido, ir soltando las buzzwords más comunes.

No tengo claro si un LLM suficientemente avanzado es indistinguible de un vendedor de humo, o un vendedor de humo suficientemente avanzado es indistinguible de un LLM.

sauron34_1

#2 no, eso no es verdad. No sabemos al 100% como funciona el cerebro, al fin y al cabo es un objeto estudiándose a sí mismo, pero lo que sí sabe es que no somos autómatas. Ya sabes, eso ya se descartó en los años sesenta con el fracaso del conductismo clásico en humanos.

ChukNorris

#52 El conductismo clásico "funcionó". (Creo que ya habíamos hablado de esto).

sauron34_1

#56 en humanos? Claro que no.

D

#52 que sea complejo predecir nuestro comportamiento o respuestas a diferentes estímulos no significa que no seamos autómatas, y en un mundo regido por las leyes de la física no queda otra que el determinismo. Ergo si, somos más autómatas de lo que la mayoría piensa. Es más, ya se demostró que las decisiones se toman antes de nosotros ser conscientes de ellas.

sauron34_1

#64 no tiene por qué ser así, porque de estructuras complejas surgen nuevas características. De moléculas simples surgen células y de estas, animales multicelulares complejos.
De un cerebro determinista puede surgir un funcionamiento no determinista. Tampoco digo que sea así, pero los científicos se plantean esa posibilidad. De algo que nadie tiene todavía la respuesta no de pueden realizar afirmaciones tan contundentes.

k

#52 Un humano, o cualquier animal, es un autómata determinista.

sauron34_1

#78 no, no lo somos.
El conductismo clásico funciona en perros y no en humanos. Se sabe desde hace más de 60 años.

k

#2 El cerebro no hace nada ni parecido a eso. Funciona de otra forma totalmente distinta y los resultados son también distintos. No puede competir en velocidad con las máquinas, a pesar de una capacidad de cómputo abrumadoramente superior, y proporciona resultados de mayor calidad y mucho más confiables.

D

#57 eso por ahora, nuestro cerebro necesitó millones de años para evolucionar, mira como ha evolucionado la IA en 40 años, o como lo ha hecho en los últimos 5
que nos va a superar es solo cuestión de tiempo, y no demasiado

k

#65 Las máquinas no evolucionan como en la biología, aunque usemos esta palabra es con otro significado.

D

#85 eso lo doy por entendido, pero la tecnología si evoluciona (o llámalo como quieras)

ccguy

#1 Más bien no hubiera habido entendidos.
El termino IA es correcto; sólo que todavía no hemos llegado al final del trayecto.

Barbol_Pelao

#31 Impecable comentario. Por desgracia para leer con seriedad sobre el tema hay que irse a fuentes en inglés, sobre todo escuchando y leyendo a académicos norteamericanos que hacen investigación puntera en IA (a menudo críticos con el hype). Tu texto está en clara sintonía con lo que suelen comentar.
Las grandes empresas de IA Generativa comprenden la tecnología muy bien al grado que saben que, aunque estos sistemas no razonan, confían en el factor de la mente humana a la hora de "rellenar huecos" ante cualquier respuesta. Y comercialmente da igual que razone o no, hay usuarios que se lo tragan y pagarán igual (y si encima potencian resultados que elevan competencias mediocres, mejor).

rojo_separatista

#31, #34, Geoffrey Hinton, premio Alan Turing, una de las mentes más brillantes en el campo de la IA gracias a la cual hemos podido desarrollar los modelos actuales diciendo que estos modelos son inteligentes, entienden, pueden razonar y eventualmente pueden llegar a ser más inteligentes que nosotros:



Dos cuñaos en Internet: cualquiera que haya estudiado mínimamente los LLM sabe que...

Barbol_Pelao

#55 Te añado más, está en sintonía con las declaraciones de Greg Brockman (cofundador de OpenAI) declarando eso sobre OpenAI o1 que hizo sonrojar a grandes expertos que no son juez y parte "precisamente" en las rondas de financiación de OpenAI (no sé si nos entendemos); como dice Pedro Domingos "OpenAI's problem is that profits and prophets don't mix."
Esas declaraciones de Geoffrey Hinton ya fueron apropiadamente tumbadas por Gary Marcus (Universidad de Nueva York, muy metido en IA Neurosimbólica), y apuntando claramente que la falacia de autoridad no debe desviarnos de los hechos factuales y las evidencias. Tienes a Yann LeCun, jefe de Meta (y que compartió ese mismo premio Alan Turing con Geoffrey Hinton en 2018, por cierto), diciendo que la arquitectura de los LLM no razonan. Timmit Gebru del DAIR Institute (muy implicada en la ética de la IA al ser expulsada de Google por denunciar en su día por los sesgos racistas de esa tecnología) opina de manera similar. Expertos en Machine Learning como Chomba Bupe dicen lo mismo. O Grady Brooch, director de Rational Software. O François Chollet de Google, creador de Keras. O profesores como Álvaro Barbero de la Autónoma de Madrid. Hasta el inefable Nassim Taleb ha comentado con sorna sobre el tema. Tienes preprints como los el conjunto del Max Planck Institute de Sistemas Inteligentes, Universidad de Michigan y Universidad de Hong Kong que con un dataset de 400k no consiguen inferir causalidad de correlación. U otro de la Universidad Hebrea de Jerusalén apuntando las limitaciones fundamentales del alineamiento en los LLMs. Otro de la Universidad de Arizona que va en la misma línea sobre el tema de las cadenas de pensamiento... Etc.
Incluso trabajos que sí apuntarían en la dirección de que estas herramientas pudiesen aprender semántica del texto (como un trabajo de 2023 del MIT de Charles Jin y Martin Rinard) sin embargo tienen un rango metodológico limitado.
Que uno sea una eminencia y un gigante en su campo no lo hace infalible (y más con la edad) frente al trabajo de los que han seguido investigando y creciendo sobre sus hombros. Pero bueno, imagino que los cuñados son siempre los demás.

En fin, igualmente nadie tiene la certeza de lo que sucederá en el futuro, y todos nos podemos equivocar, TODOS. Y será interesante ver como evoluciona el tema... sin contar los costes operativos gigantescos que tarde o temprano harán acto de presencia frente a la ley de rendimientos decrecientes: "A veces cuando amplías el marco de representación lo que parece una curva exponencial... termina siendo en realidad una curva sigmoidea".

f

#69 Unas puntualizaciones importantes:

- las palabras de LeCun: sus palabras exactas no fueron que no razonen sino que no tienen razonamiento espacial, que no es lo mismo, y que para alcanzar la AGI el camino no son las LLMs porque para lograr la AGI hay que tener entendimiento del mundo físico y razonamiento espacial. Pero en ningún momento ha dicho que las LLMs no razonen, sería un tiro en el pie para su propio equipo, que se dedica precisamente a entrenar LLama.

- Timmit Gebru no fue expulsada por denunciar los sesgos racistas, google no tiene problema alguno en tratar de eliminar esos sesgos, Gemini es posterior a Gebru y no veas qué graciosa era con la diversidad en las imágenes. Lo que no gustó dentro de google es que dijese que los entrenamientos de las LLMs se están cargando el planeta (algo en lo que coincido), y que son loros estocásticos (el paper se llamaba ".On the dangers of stochastic parrots: Can language models be too big?"). Por otro lado, su opinión de que no razonan, es del año 2020, ha llovido.

- Gary Marcus no dice que no razonen, sus palabras exactas son "Even long arguments produced this way can be both trustworthy and interpretable, since the full step-by-step line of reasoning is always available, and for each step the provenance of the knowledge used can be documented and audited". De hecho, su propuesta es mezclar LLMs con IA simbólica (curiosamente, su área de conocimiento).

Barbol_Pelao

#80 LeCunn es un buen científico (a pesar de estar en Meta) porque aparentemente es de los pocos que no deja que su nómina contradiga sus impresiones. En recientes declaraciones (de meses) afirmaba que el escalado no es suficiente para la AGI y que los LLMs no razonan (aparte de otras cuestiones que se me escapan, como que los LLMs autorregresivos están condenados -lo cual en el fondo es lógico-).
Por otra parte cierto en lo de Timmit Gebru respecto al año 2020 (con el avance endiablado del campo 4 años son el equivalente a siglos en otros campos científicos). Sobre lo de su expulsión por los sesgos racistas parece ser la opinión generalizada en la red (pero como sé que dominas este área desde hace años -yo no me dedico a este campo pero ni remotamente de lejos- lo más seguro es que tienes razón).

Y Gary Marcus lo ha comentado más de una vez en X... Y de hecho en su respuesta a Geoffrey Hinton incide en el tema, aquí su palabras:
"The term understanding itself is not perfectly well-defined. One might conceivably attribute some shallow level of understanding to LLMs, but there are many reasons to doubt that current neural networks have deep understanding."
(...)
"Our central claim was that statistical approximators (such as the earlier, smaller LLMs that were then popular) lack common sense, the ability to reason causally, and so on."
Y el enlace a su respuesta a Hinton:
https://garymarcus.substack.com/p/deconstructing-geoffrey-hintons-weakest

De todas maneras aunque los LLMs actuales no razonen por otra parte nada afecta a su ya de por si extraordinario (aunque costosísimo) rendimiento. El aumento de productividad para quien sabe utilizarlos es más que evidente. ¿Qué más da si razonan o no si lo importante es si funcionan o no?

rojo_separatista

#69, nadie que se precie en el mundo de la IA citaría a Gary Marcus como referente de nada después de más de una década haciendo el ridículo en todas y cada una de sus predicciones, lo de Yan Lecun también tiene su explicación cuando sabes que lo que intenta es vender sus propias arquitecturas a pesar de haber hecho ridículos sonados como la famosa aseveración de que modelos generativos era imposible hacer videos de más de 10 segundos una semana antes de la aparición de Sora.

Por otro lado no solo es Geoffrey Hinton el que habla en estos términos sobre los LLM, tiene a Andrej Karpathy, Ilya Sutskever, Denis Hassabis o Joshua Bengio que dicen cosas parecidas, con el añadido de que sí han participado activamente en avances significativos en el campo de la IA la última década.

No voy a ser yo quien diga que tiene la razón definitiva sobre esto, aunque en base a mi experiencia con el uso de esos modelos y viendo su evolución tengo mi propia opinión. Pero decir que "cualquiera que haya estudiado los LLM" ha de tener forzosamente la opinión de que estos modelos no razonan es una cuñadez enorme, porque en la comunidad científica hay voces de todo tipo y no, los que opinan así no es únicamente porque estén intentando cerrar rondas de financiación de forma interesada. El propio Geoffrey Hinton renunció a un salario multimillonario en Google por estás opiniones.

k

#55 La falacia de autoridad es una falacia, no un argumento.

k

#34 para leer con seriedad sobre el tema hay que irse a fuentes en inglés

En este tema y en cualquier otro tema. Lo que existe en otros idiomas son traducciones del inglés, pero traducir del inglés es difícil y las traducciones contienen malinterpretaciones. Las traducciones son un conjunto muy escaso de lo que hay.

Una persona que tenga un interés en la cultura, no importa la subespecialidad, el tiempo mejor aprovechado que puede tener es estar practicando inglés. En la práctica es prerequisito para otras cosas, a veces totalmente insospechadas.

ChukNorris

#59 Gracias por tus comentarios@fluffy

k

#31 no razonan ni nada que se le parezca

No tienen, ni pueden tener, ninguna capacidad de razonar. Sin embargo eso del texto predictivo sí que puede copiar de un texto que contenga un razonamiento. Algunos de los errores cometidos por estos trastos consisten en seguir el razonamiento de un texto no aplicable al caso.

rojo_separatista

#36, cuanto daño ha hecho arxiv que ahora hace que un documento subido sin indexar en ninguna revista o conferencia se considere una referencia relevante en una discusión a la altura de una publicación al uso.

aPedirAlMetro

#37 Vamos que no te lo vas a leer porque patatas. Ni siquiera te ahs molestado en mirar quien lo ha escrito, ni su trayectoria.

En fin. Entonces considera esto otro... solo has de preguntarle a ChatGPT sobre si puede razonar o no, para obtener un:

"It’s true that reason is a universal tool that humans and machines can use to evaluate and process information. However, there’s a distinction between how reasoning is applied by humans versus how it is simulated by machines like me. "

rojo_separatista

#36, #38, de todas formas el paper es antiguo, habla de GPT-4 y la crítica principal no aplica a la última versión que es o1 que sí desarrolla por defecto cadenas de pensamiento que permiten la trazabilidad del razonamiento, algo sobre lo que el autor asentaba la crítica sobre GPT-4.

"Ultimately, there is really no proper way to assess the reasoning ability of a system unless we ask it to explain its output. This is an essential part of reasoning, which is not about producing the right answer by hook or by crook but about deriving the right answer for the right reasons."

r

#39 Da igual qué versión sea, el algoritmo y la base de todo es el mismo.

rojo_separatista

#49, para què los benchmarks, para què los LLM arena, para què seguir iterando nuevos modelos que cada vez se equivocan menos y razonan mejor, para qué invertir miles de millones de euros y cientos de horas del trabajo de las mentes más brillantes del momento si hay usuarios de menéame que dicen que da igual la versión que sea, todas son igual de malas.

rojo_separatista

#38, parece que o1-preview afirma que sí puede razonar.

aPedirAlMetro

#40 Claro claro , que te va a decir lol

Mira, ahora preguntale si puede mediante ese razonamiento crear un sistema de creencias.
Y cuanto te diga que NO, dile que si de verdad pudiese razonar deberia ser capaz de crear un sistema de creencias.
Y sigue tirando del hilo.

Ya veras que rapido termina reconociendote que lo suyo es solamente una simulacion de razonamiento.

Amigo mio, el racionamiento, requiere de consciencia.
(y hay infinidad de estudios sobre el tema publicados en prestigiosos medios, como a ti te gusta)

Lo que hace ChatGPT es impresionante, pero no es razonar.

rojo_separatista

#41, para mí razonar es resolver problemas utilizando el intelecto. Lo del sistema de creencias me parece algo abstracto para lo que probablemente esté expresamente alineado para no crear. Toda la vida se h ma evaluado la inteligencia y la capacidad de razonamiento de los seres humanos a partir de plantear problemas de lógica y razonamiento y ver como se resuelven, como ahora hemos visto que las máquinas pueden hacerlo hemos decidido que esto ya no vale, que hay que mover la portería y que lo que valía para determinar lo bien o mal que razonaba una persona ya no sirve para una máquina.

aPedirAlMetro

#42 Y para mi la tortilla de patatas lleva piña, no te jode.
El propio ChatGPT te reconoce que lo que hace es una simulacion.
Pero eh, erre que erre...

k

#43 "based on patterns in the data I've been trained on"

Exactamente. Es lo mismo que quiero significar cuando digo que están copiando el razonamiento de algún texto que se han tragado. De hecho lo que están copiando es el texto en sí, que éstas máquinas solamente pueden procesar palabras, pero sustituyendo cosas.

aPedirAlMetro

#42 "Toda la vida se h ma evaluado la inteligencia y la capacidad de razonamiento de los seres humanos a partir de plantear problemas de lógica y razonamiento y ver como se resuelven"

Y algo me dice que no has abierto un libro de filosofia en tu vida. Sin acritud.

rojo_separatista

#46, ahí has dado en la clave de vuestro problema, lleváis al campo de la filosofía, más en concreto a la metafísica, un problema de ingeniería.

aPedirAlMetro

#62 El razonamiento es un problema de la ingenieria ?
No nos vengamos arriba por favor.

Que conste que soy ingeniero

k

#46 Aunque los humanos resolvemos problemas usando la inteligencia, esto no significa que sea la única forma posible de hacerlo. Si alguien escribe un algoritmo que resuelve el problema, eso es otra forma distinta de hacerlo.

Si, a partir de ahí, se dice que el resover ese problema no demuestra inteligencia, pues eso depende del método usado. No es una afirmación que se pueda hacer en términos absolutos.

k

#41 el racionamiento, requiere de consciencia.

Esta es una afirmación muy dura de la que no me atrevo a estar ni a favor ni en contra. En principio no veo por qué razón la consciencia es necesaria.

Cierto que no tiene sentido hablar en estos términos sin antes haber dado una definición algo precisa de lo que es la consciencia.

Sólo, como comentario al margen, digo que la consciencia puede ser necesaria para ponerle palabras a un razonamiento, pero no es necesario razonar mediante palabras.

r

#40 Sigue preguntando, no te quedes con la primera respuesta. Porque es una cuestión de probabilidades.
Pregúntale cómo razona, cómo funciona, etc.

Fernando_x

#37 Yo me lo he leído. Está en arxiv porque en su estado actual es impublicable. Además de muy anticuado, abusa de muchísimas opiniones no fundamentadas, además que, por su estado de desfase, las pruebas que usa como prueba, ya son superaras por chat-gpt-o1

rojo_separatista

#84, enlazo a #36 a tu respuesta.

Fernando_x

#95 Ya le contesté directamente en #82, de forma más desarrollada. Y esperando su respuesta.

ed25519

#37 en eso esto deacuerdo

Fernando_x

#36 Me lo he leído (por encima) y no me convence. Aunque da una definición bastante buena de lo que se considera razonamiento, que debería ser la base para discernir si algo o alguien razona o no, mediante un análisis cuantitativo, no lo hace. Se queda en una opinión cualitativa, en la que igualmente afirma que, por su definición, hay seres humanos que tampoco razonan, aunque afirma que sí tienen la capacidad de aprender a razonar. Sin aportar pruebas ni de lo uno ni de lo otro.

Otro problema que le veo es el uso de expresiones como "I think that" o "I don't think that", que JAMÁS se deberían usar en un artículo científico. Un artículo científico no es un artículo de opinión. Hay que fundamentar absolutamente todo lo que se afirma.
El artículo está lleno de opiniones de ese estilo: "si no puede multiplicar, entonces tampoco puede invertir matrices, si no puede invertirlas tampoco puede compilar programas, y si no puede tampoco puede crear teoremas" No aporta pruebas de nada de eso.

Pero bueno, yendo al grano:

Le he propuesto a ChatGPT-o1 el primer test que ha usado en el artículo, ese que usa como prueba de la falta de razonamiento. Y lo ha superado esta vez. Por lo tanto, siguiendo su análisis, si cuando escribió el artículo Chat-GPT no razonaba al no poder superar esa prueba, pero ahora sí, entonces ahora sí razona.

¿Quieres que siga comprobando los siguientes test que realiza?

A menos que realice una profunda revisión del texto, se va a quedar en arxiv para siempre.

uberhumanista

#10 Razona mejor que la mayoría de personas que conocemos (y lo más grave es que muchas de ellas no pasarían el test de turing).

rojo_separatista

#22, puedes poner un ejemplo de problema de razonamiento que sirva de prueba objetiva y verificable para determinar si un ente razona o no razona viendo si es capaz de resolverlo y así lo probamos con chatGPT o esto funciona como el tema de la existencia del alma, es un acto de fe y no algo que se pueda demostrar empíricamente?

r

#30 Porque no "entienden" conceptos, entienden "next token".
Las "AI" funcionan "prediciendo" ( cuál será la probabilidad) el siguiente "token".
Por eso hay cosas para las que funcionan extremadamente bien y otras que no.
O por eso pueden "alucinar" y demás.

k

#10 La mayoría de personas no razonan en absoluto. Las personas se mueven según sus instintos y las decisiones tomadas así se justifican mediante racionalizaciones, que es el inventar excusas. El movimiento habitual es alinearse con lo que digan los demás para poder encajar socialmente.

capitan__nemo

Yo creo que es el uso de la palabra "inteligencia"

Si ya una bombilla con un sensor de presencia la llaman bombilla inteligente.

Y despues, si lo que tenemos ahora se llama inteligencia

Doisneau

Yo aun no he leido un articulo medio decente sobre IA, al menos en medios generalistas. Algunos casi caen en la mistica incluso, es vergonzoso. Pero claro un analisis tecnico o algo mas formal no da tantos clicks

E

#8 https://www.genbeta.com/inteligencia-artificial/he-pedido-a-chatgpt-que-lea-manual-lavavajillas-me-ha-descubierto-secreto-salgan-platos-limpios

Cuando vi que publicaban eso yo dejé de tener fe en que el tema fuese a ser tratado de manera seria en un futuro próximo, por lo menos por medios generalistas.

Fernando_x

#8 Este artículo también decepciona. En el titular y la entradilla nos explica sobre el problema de que la gente no entiende lo que la IA puede hacer y lo que no puede, pero luego el texto no explica por ninguna parte lo que la IA puede hacer y lo que no.

k

#8 En computación cuántica es mucho peor. Nunca he visto a un periodista entender de qué va, pero ni muy aproximadamente. Es decir que todo lo que se dice sobre el tema son estupideces, todo.

sauron34_1

Algo que me han discutido por aquí mil veces: las redes neuronales son un nombre cool, que han basado su funcionamiento en las neuronas biológicas, pero poco más.
Las IA son algoritmos, siguen programadas en lenguajes discretos y deterministas, siguen siendo maquinas de Turing, es decir, autómatas.
No son capaces de razonar ni deterministas aprender.

k

#53 El ser un autómata no es ninguna limitación. Las limitaciones que tiene una red neuronal son debidas a su estructura interna.

Fernando_x

Me encantaría que aportaras captura de pantalla, porque a mí me lo ha resuelto correctamente a la primera. Y entonces da la impresión de que os inventáis las respuestas o hacéis las preguntas mal.

k

Entonces las IAs no nos van a dejar si trabajo a todos?? Vaya, quién iba a imaginar que estaban vendiéndonos otra vez un crecepelos curalotodo.

k

#19 Hay algunas empresas dando pasos en ese sentido. También las hay dando pasos atrás.

Lo decimos los motoristas es que hay dos clases de motoristas: Los que ya se han pegado la hostia y los que se la van a pegar.

redscare

Yo la verdad con que la IA mejore lo suficiente como para poder pedirle que me genere informes en el curro y que me cruce datos entre dos sistemas y me diga las inconsistencias, yo ya sería muy feliz.

r

#45 Eso ya lo hace. Y mucho más.

redscare

#51 No, sin MUCHA ayuda no lo hace. Horas y horas de curro de un humano. Al menos en lo que a productos comerciales se refiere.

X

El imaginario público o el vendemotos de turno?

Varlak

#11 el público se informa leyendo o viendo a vendemotos

c

La IA nunca acabará con el ser humano: es más fácil reproducir seres humanos que robots.

sorrillo

#67 Hay muchos seres vivos que se reproducen con mayor facilidad que el ser humano y van camino de la extinción o se han extinguido, y en ningún caso dominan el planeta.

1 2