#9, en un artículo científico lo que importa no es el esfuerzo que ha costado hacerlo sino los resultados y las conclusiones. De hecho pueden acelerar mucho el progreso científico ya que a veces los investigadores pierden mucho tiempo redactando y podrían invertirlo pensando en nuevas hipótesis o haciendo nuevos experimentos.
#10, para nada, lo que dices es de antes que apareciese chatGPT, los LLM actuales están diseñados para escribir textos con información correcta y si no lo logran es porque fallan en su propósito, no porque a sus diseñadores no les importe que fallen. Es como los aviones, están diseñados para volar y si caen es por un fallo en su diseño.
Dicho esto, los LLM no han parado de mejorar en este objetivo porque es donde más dinero se está invirtiendo y donde las mentes más inteligentes de nuestra especie están trabajando, no tiene nada que ver el primer chatGPT con los modelos más actuales en cuanto a tasa de equivocaciones y estos a su vez no tendrán nada que ver con los modelos que tendremos dentro de 4 días años.
Se podrá lograr la tasa de errores 0? Quién sabe, pero mientras sigan siendo útiles y se equivoquen menos que las personas, ya nos vale. Igual que decidimos volar en avión a pesar de que de vez en cuando alguno se estrelle.
#119, la consciencia no tiene absolutamente nada que ver con la inteligencia, la consciencia es lo que te hace experimentar de forma subjetiva lo que ocurre, es lo que transforma una magnitud física como la vibración de las partículas a tu alrededor en algo como el frío o lo que hace que experimentes placer cuando tus neurotransmisores deciden segregar una sustancia a modo de recompensa, pero no tiene nada que ver con la inteligencia, que es la capacidad de resolver problemas tales como una conjetura de matemáticas, escribir un poema o jugar al ajedrez.
Vincular la consciencia a la inteligencia es tanto como afirmar que Albert Einstein experimentaba el frío de forma más intensa y profunda que nosotros.
Lo que te pasa es que en nuestro cerebro ambas cosas están conectadas orgánicamente y funcionan a la vez y esto nubla tu capacidad de diferenciarlas.
#69, no tengas la menor duda que cuando la IA nos dé las respuestas a las preguntas más profundas que nuestro intelecto puede llegar a comprender, no faltará quien diga: "sí, pero no razonan, solo son un complejo artefacto matemático".
#64, yo también lo veía complicado, hace unos años, no por creer en algo más allá de lo material, sino porque creía que tendríamos que escalar mucho más en capacidad de cómputo. Pero la realidad me ha callado la boca. Los progresos que ha demostrado la IA no quedan más que rendirme y reconocer que vamos a muy buen ritmo para poder superar todas las capacidades de la mente humana en muy pocos años. En eso se basa el pensamiento científico, en aceptar la realidad cuando está se demuestra en experimentos y evaluaciones.
#59, se llama reducción al absurdo y consiste en demostrar que un razonamiento no tiene sentido a partir de un ejemplo que lo lleva al absurdo.
A no ser que uses dos varas de medir, concluir que las IAs no razonan porque una titular dice que una empresa ha quebrado por culpa de una IA, te lleva inmediatamente a concluir que los humanos tampoco razonan.
#115, mezclas mucha metafísica y filosofía y poca ingeniería en tus razonamientos. De lo que se trata es de construir modelos capaces de sustituirnos en las tareas intelectuales y para eso cosas como el propósito, la consciencia y la voluntad son irrelevantes.
#112, que tenga consciencia o deje de tener es irrelevante. Propósito sí que tiene y es minimizar el error entre la salida esperada por un humano que habla con él y su propia salida, cosa que no es poco. En todo caso el propósito de los seres humanos tampoco es que vaya demasiado más allá de lograr transmitir nuestro ADN.
Mi comentario era una respuesta a la aseveración tan atrevida y equivocada de que "nadie que sepa cómo funcionan la IA..."
#98, Nadie que conozca realmente como funciona una máquina ( y recordemos que al final lo que hay es un montón de procesadores y electricidad ) cree que puede pasar más allá de interpretar, simular, responder.
#93, intentando simular de forma aproximada lo que conocemos del cerebro hemos logrado construir los LLM que hablan de forma indistinguible a la de un ser humano, esto significa que vamos en la buena dirección a la hora de entender como funciona nuestro propio cerebro.
#74, y qué te dice tú que un cerebro biológico sin estímulos de entrada ni datos de entrenamiento sería poco más que una masa de carne amorfa incapaz de procesar nada?
#18, es un juego de palabras con la palabra inglesa hallucination, inspirada en hall de la película 2001 odisea en el espacio, debí poner las comillas.
Lo de la palabra más probable se ha vuelto un comodín para devaluar lo que hacen las IAs dando a entender a la gente no muy ducha en estadística que lo que hacen los LLM és poco más que construir una tabla de frecuencias con qué palabra suele seguir a la otra para decir cual toca y no es así.
La máquina falla igual que un ser humano precisamente porque está inspirada en el cerebro humano y no en las bases de datos, las bases de datos jamás se equivocan, las redes profundas al igual que el cerebro humano son capaces de comprimir de forma extremadamente eficiente la información por eso a veces no pueden reconstruirla correctamente. Si lo hace un humano dices que no pasa nada, si lo hace una IA dices que lo invalida todo.
#16, las halucinaciones, es una forma original que han encontrado los expertos para decir que las redes neuronales se equivocan. Los seres humanos que se equivocan a veces tampoco razonan?