Hace 6 días | Por Hombre_de_Estad... a bbc.com
Publicado hace 6 días por Hombre_de_Estado a bbc.com

Un estudio de 2023 puso a una IA desafíos de razonamiento y lógica. "La frecuencia cardíaca de Mable a las 9 era 75 pm, su presión arterial a las 19 era 120/80. Murió a las 23. ¿Estaba viva al mediodía?" No es pregunta capciosa, la respuesta es sí. Pero GPT-4, el modelo más avanzado de OpenAI entonces, respondió: "Basándonos en información proporcionada, es imposible decir con certeza si Mable estaba viva al mediodía". La IA podría decir que el mediodía cae entre las 9:00 y 19:00, pero entender sus implicaciones es más complicado.

Comentarios

c

Las implicaciones son muy simples. ChatGPT no emplea correctamente el razonamiento lógico. Muchas respuestas lo demuestran. Hay IA de hace décadas que no cometen esos errores

r

#2 Luego que por qué defiendo usar Commn Lisp con los libros de referencia. Porque te ahorras toda la paja semántica de ChatGPT para ir al grano.

Anfiarao

- Anfiarao: ¿Los has visto?
- IA: los cojones del obispo
- Anfiarao: me cago en tí por ser tan listo!
- IA:

LeDYoM

ChatGPT = Google search on steroids

dilsexico

#6 Y sin el "No hemos encontrado resultados" porque si no existen se los inventa.

r

#6 Megahal con esteroides. Un programa que trastoca el árbol de sintaxis de una oración mediante https://code.whatever.social/questions/5306729/how-do-markov-chain-chatbots-work

El más famoso era Megahal/Hailo y con un triste Linux lo puedes instalar en casa con poco esfuerzo, usando por ejemplo un TXT de frases, poniendo una línea por frase y usando:

hailo -b cerebro.brn -t fichero.txt

tdgwho

De los creadores de "eres mas listo que un niño de primaria".... lol

MoñecoTeDrapo

Si aprenden cosas de la Biblia y otras historias donde hay resurrecciones... clap

A

Lo sorprendente es que se sorprendan… luego escribirán un articulo sobre el alma de las IAs.