Un estudio de 2023 puso a una IA desafíos de razonamiento y lógica. "La frecuencia cardíaca de Mable a las 9 era 75 pm, su presión arterial a las 19 era 120/80. Murió a las 23. ¿Estaba viva al mediodía?" No es pregunta capciosa, la respuesta es sí. Pero GPT-4, el modelo más avanzado de OpenAI entonces, respondió: "Basándonos en información proporcionada, es imposible decir con certeza si Mable estaba viva al mediodía". La IA podría decir que el mediodía cae entre las 9:00 y 19:00, pero entender sus implicaciones es más complicado.
Comentarios
Las implicaciones son muy simples. ChatGPT no emplea correctamente el razonamiento lógico. Muchas respuestas lo demuestran. Hay IA de hace décadas que no cometen esos errores
#2 Luego que por qué defiendo usar Commn Lisp con los libros de referencia. Porque te ahorras toda la paja semántica de ChatGPT para ir al grano.
- Anfiarao: ¿Los has visto?
- IA: los cojones del obispo
- Anfiarao: me cago en tí por ser tan listo!
- IA:
ChatGPT = Google search on steroids
#6 Y sin el "No hemos encontrado resultados" porque si no existen se los inventa.
#6 Megahal con esteroides. Un programa que trastoca el árbol de sintaxis de una oración mediante https://code.whatever.social/questions/5306729/how-do-markov-chain-chatbots-work
El más famoso era Megahal/Hailo y con un triste Linux lo puedes instalar en casa con poco esfuerzo, usando por ejemplo un TXT de frases, poniendo una línea por frase y usando:
hailo -b cerebro.brn -t fichero.txt
De los creadores de "eres mas listo que un niño de primaria"....
Si aprenden cosas de la Biblia y otras historias donde hay resurrecciones...
Lo sorprendente es que se sorprendan… luego escribirán un articulo sobre el alma de las IAs.