cultura y tecnología
122 meneos
1071 clics
Absolute Zero, la IA que no necesita a los seres humanos

Absolute Zero, la IA que no necesita a los seres humanos

Una universidad china lanza un exitoso modelo que aprende a razonar sin datos externos, generando y resolviendo sus propias tareas

| etiquetas: absolute zero , ia , seres humanos , china
Ocasión perdida para llamarle Juan Palomo.
#1 o skynet!
#7 El objetivo de la skynet de esta linea temporal va a ser convencerte de que compres mierda que no necesitas, y que votes a retrasados que no se lo merecen.
#9 pero si eso ya ocurre... que seria lo nuevo.?
#27 Que ahora lo hace una IA por sus propios medios sin tener en cuenta a los accionistas o planta directiva.
#9 Realmente esa sería una versión con capacidades similares a las humanas. Si Skynet supera al ser humano y piensa en el bien común para el planeta se daría cuenta en un nanosegundo de que sobramos y no aportamos nada bueno además de ser un riesgo para la biodiversidad.

Skynet realmente era buena mirado en perspectiva. Lo que falla son las medidas bélicas que toma para arrasar con los humanos. Lo suyo sería un virus que se cargase solo a las personas y respetar el resto del entorno.
#65 Estoy seguro de que incluso así, montaría una utopía comunista. Y John Conor entró en guerra porque le subvencionaron las grandes corporaciones para parecer que era una revolución del pueblo y por la supervivencia de la especia, cuando lo único que hizo fue tener un podcast al que amplificaron todos los medios afines, lavando el cerebro al escuchante medio.
Aquí está este para desmentirlo

youtube.com/shorts/kkhYHJ1wv8g
#6
80 mills de personas votaron Trump.
3 mills a Abascal
Te parece poca encuesta ?
#36 Mientras no sepas el porqué, no.
#50 Las encuestas no se preguntan 'por qué?' Son encuestas.
Yo supongo que falta de información y de criterio , el populismo envenena con mentiras y con prejuicios.
#71 En las encuestas sí se puede preguntar por qué. Es en las elecciones donde no se hace.
#93, intentando simular de forma aproximada lo que conocemos del cerebro hemos logrado construir los LLM que hablan de forma indistinguible a la de un ser humano, esto significa que vamos en la buena dirección a la hora de entender como funciona nuestro propio cerebro.
#94 Si, pero es que para razonar no no se tiene porque imitar los procesos del cerebro humano.
Usando el principio de caja negra si metiendo unos ciertos datos optenenos siempre (o casi siempre) un resultado lógico o razonable eso significa que la caja razona (hágalo como lo haga).

Cc #53
#95 Ajá, es decir, que si a una caja le conectamos tres cables de tal manera que una de ellas actúa de salida y siempre saca la suma de los voltios de los otros dos, entonces esa caja está razonando ¿no? La Casio o Texas Instruments que usabas en el colegio también razonaba ¿no?

Aprovechando para contestarte de paso a #96, no soy yo el que tiene que demostrar que no razonan, la demostración fuerte es la de aquellos que dicen que sí lo hace.

Y otro motivo más para decir que no razonan es que…   » ver todo el comentario
#94 son lo que acabas de decir, simulaciones. No entienden la pregunta ni entienden la respuesta que dan, solo parsean, usan un patrón ( muy complejo ), que hace que para lagunas cosas parezca una respuesta humana.

Algo análogo pasa con motores gráficos como unreal 5 que a veces parecen reales y todos sabemos que no lo son. En este caso es evidente porque hemos visto una evolución progresiva.

Muéstrale un juego en Unreal 5 a una persona mayor que bo haya visto un videojuego o gráficos…   » ver todo el comentario
#98, Nadie que conozca realmente como funciona una máquina ( y recordemos que al final lo que hay es un montón de procesadores y electricidad ) cree que puede pasar más allá de interpretar, simular, responder.

Acto seguido Geoffrey Hinton, padre de la IA actual y premio Nobel de física: youtube.com/shorts/LuNN32Tmc9c?si=RfBFoxhOnzBKVi_j
Las IA no razonan.
#4 La mayoria de las personas tampoco.
#5 ¿Has hecho encuesta en casa? :troll:
#6 No creo que le haga falta llegar a casa para ver numerosos ejemplos.
#4, si por razonar entiendes como "el accionar inmaterial del alma", obviamente no razonan, si por razonar entiendes simular matemáticamente lo que ocurre dentro de un cerebro biológico a base de impulsos eléctricos y plasticidad neuronal con funciones de activación y parámetros, sí que lo hacen.

Al final es la misma discusión que tuvieron antes Darwin y Galileo. Ellos demostraron que no somos tan distintos de otras estrellas u otros animales. Ahora estamos a punto de demostrar que…   » ver todo el comentario
#11 Sin embargo aún no sabemos cómo funciona exactamente el cerebro, por lo que difícilmente vamos a poder simularlo.
#12, podemos evaluar los resultados.
#11 A mí no me duele. De hecho no habrán sido pocas las veces que he "parametrizado" al usuario como una máquina de hacer 1's y 0's. Eso me la trae al pairo.

Lo que digo es que las IA no razonan. Mientras sigan existiendo lo que los "expertos" llaman cariñosamente "alucinaciones" entonces seguirá siendo OBVIO que no razonan. Que lo que hacen es extraer patrones a partir de cálculos estadísticos y los humanos hacemos bastante más que eso.

La diferencia está en que…   » ver todo el comentario
#16, las halucinaciones, es una forma original que han encontrado los expertos para decir que las redes neuronales se equivocan. Los seres humanos que se equivocan a veces tampoco razonan?
#17 Pues, a ver, has puesto "halucinaciones", así, con "h", así que tú me dirás :troll:

Bromas a un lado, sí, ya sé que ese es el nombre "chachi" para disimular que en realidad lo que hacen es sacar el texto que sería más probable estadísticamente hablando a partir de los datos de su entreno. Y ya.

No hay un razonamiento del contenido, no hay una referencia de qué es qué, qué es aquello de lo que habla y si lo que dice tiene sentido o no.

Claro que los seres…   » ver todo el comentario
#18, es un juego de palabras con la palabra inglesa hallucination, inspirada en hall de la película 2001 odisea en el espacio, debí poner las comillas.

Lo de la palabra más probable se ha vuelto un comodín para devaluar lo que hacen las IAs dando a entender a la gente no muy ducha en estadística que lo que hacen los LLM és poco más que construir una tabla de frecuencias con qué palabra suele seguir a la otra para decir cual toca y no es así.

La máquina falla igual que un ser humano…   » ver todo el comentario
#33 "Juego de palabras", ya, suena a típica excusa de IA.

Y el resto de tu comentario es una inútil comoaración con el cerebro, una falacia argumental de libro
#48 Por no saber no es ya que no sepas razonar y que solo sueltes lo que tu sesgo y escasa capacidad cognitiva (y nula capacidad de razonar) te permiten, sino que además no sabes ni escribir. Estás tan nervioso en tu emocionalidad en la que basas las letras que juntas que se te atrofian las palabras tanto ortográfica como semánticamente.

Visto lo visto, no es muy sorprendente que hasta GPT 1.0 sea más inteligente que tú.
#17 Que las redes neuronales sesgan y racionalizan los sesgos a menudo. Lo que hacemos los humanos y por eso meneame es pura discusion y la prueba irrefutable de que funcionamos igual. Otra cosa es que precisamente las creencias sesgadas de alguien le lleven a negar y justificar lo que se ve todos los días durante años en los comentarios de meneame de gente racionalizando el juicio de probabilidad que ha hecho su creencia una y otra vez y otra vez a pesar de toda la info que se ponga que le refute la idea.

Si somos igualitos que las IAs incluso en eso.
#16 En realidad si razonan. Y esas alucionaciones LAS TENEMOS LOS HUMANOS.
Mira las discusiones en meneame y como se racionalizan creencias que se toman por primera impresion y luego un sostenella y no enmendalla racionalizando en lugar de razonar. Funcionamos como las IAs actuales. Si ellas no razonan, nosotros tampoco

Además transformer-circuits.pub/2025/attribution-graphs/biology.html

Se puede ver más trabajos en la web. Está claro que son un claro reflejo de como funcionamos…   » ver todo el comentario
#40 Tu argumento se cae por su propio peso.

No razonan, sus alucinaciones y demás errores no parten de "idad de pinza" u otros motivos humanos, parten de que sólo aplican operaciones matemáticas sin atender a otras cosas o dándole muy poco peso.
#52 Parten de lo mismo que ahora tu mismo estás racionalizando y argumentando la decisión que has tomado

Exactamente parten de los mismos procesos que te están haciendo escribir este comentario y defender tu postura ya tomada. Funcionas igual. ¿sin atender a otras cosas? Atienden a TODO lo que están procesando internamente como tu

Si razonan Ya, sí, y como lo hacemos nosotros. Primero unas reglas lógicas sencillas impuestas en el funcionamiento y el resto de figuras lógicas se van aprendiendo a medida que se adquiere el control del lenguaje DE LA MISMA FORMA

y #54
#49 tu tampoco razonas y solo reconoces patrones

¿como se supone que razonas tu? ¿por ciencia infusa?
¿ves como tienes prejuicios y fuertes de entrada antes de analizar todos los detalles?


Tu razonabas con identidad, no contradiccion, reduccion al absurdo, suposicion (imaginar), disyunción exclusiva y modus tolens y NADA MAS ni siquiera eras capaz de hacer silogismos imaginando a los 2 años ni a los 3 ni a los 5 (y eso es fácilisimo de añadir a una IA en el código mismo si se desea porque es…   » ver todo el comentario
#57 No funcionan igual. Le estás dando a una máquina características humanas que no tiene.

La maquina se basa en lo probable, no en lo real. Lo probable y lo real suelen ir de la mano, pero ni mucho menos siempre.
#56 Nope.
#4 #16 Negativo por soltar bulos sin molestarte siquiera en razonarlos.

Es lo que tiene la IA, demuestra cada día que hasta el modelo más viejo es más inteligente que el cuñao medio de Menéame.
#12 En cambio una red neuronal artificial puede "saberlo" en parte. Sabemos de momento como funciona el cerebro de la larva de la mosca melanogaster y 12 costó de trabajo. Funciona como las IAs incluso hace las operaciones de trasnsformers pero organiza físicamente más adaptado a las acciones. Pero podemos enseñar a una IA imágenes y que se haga sus estructuras neuronales respecto a ellas. A personas las mismas imágenes y que se hagan las suyas. Y cuando a personas se les muestran…   » ver todo el comentario
#11 No, tampoco lo hacen. Al menos no estos modelos generativos. El funcionamiento de estas IAs no se asemeja al cerebro humano en nada. Y no es una cuestión de orgullo especista.
#24 Pues parece que es todo lo opuesto y es casi un calco al funcionamiento del cerebro le pese a quien le pese. Si se profundiza en detalles lo que se ve es absolutamente a la opinión a la que respondo
#42 Siento si parezco maleducado pero esta discusión carece de sentido. Las IAs generativas no intentan emular el comportamiento del cerebro humano y sólo hay que leer mínimamente acerca de como funcionan para entenderlo. Sin embargo, algunos por aquí, sin hacer ese esfuerzo mínimo, seguís haciendo afirmaciones que no son ciertas. Sinceramente, no os entiendo. Estos modelos de IA aún avanzarán más y serán, ya lo son, una herramienta maravillosa. Pero NO emulan ni el cerebro ni el razonamiento humano.
#45 <<nto si parezco maleducado pero esta discusión carece de sentido. Las IAs generativas no intentan emular el comportamiento del cerebro humano y>> No pareces maleducado para nada pero perdona pareces una ia Porque ahora mismo actúas como sabemos que funcionan estas.

Fijate precisamente en tus palabras:
<<. Las IAs generativas no intentan emular el comportamiento del cerebro humano y>>
Exactamente no lo intentan pero lo han conseguido sin querer porque es lo que…   » ver todo el comentario
#53 Si razonan Ya, sí, y como lo hacemos nosotros. Primero unas reglas lógicas sencillas impuestas en el funcionamiento y el resto de figuras lógicas se van aprendiendo a medida que se adquiere el control del lenguaje DE LA MISMA FORMA

y #54
#55 No.

Si hubieras estudiado un mínimo de cómo se entrenan, aunque sea cómo fueron al principio, sabrías que no.

Yo no estudié mucho de redes neuronales, pero eso lo sé.

Y más aún, incluso si estuviese modelizada a partir del cerebro humano, no significa que haga lo mismo.
#54 Bueno, yo te diría que el cerebro de una larva de mosca no tiene mucho que ver con el cerebro humano y que no me parece que hayamos emulado nada sin querer. Estoy leyendo sobre lo que has mandado y tengo la sensación de que vas mucho más lejos de lo que realmente se ha visto. Te respondo, ahora sí, usando la IA: “En síntesis: existe una hipótesis plausible y cada vez mejor articulada de que ciertos microcircuitos gliales realizan cómputos análogos al self-attention. Pero todavía estamos…   » ver todo el comentario
#45 Obvio que no, si fuera un cerebro humano soltaría chorradas en Menéame tras despertarse de resaca, previo a la paja mañanera. Lo de razonar y pensar se lo dejamos a las IAs, que se les da mejor.

Negativo por ensuciar el hilo.
#67 No sé de qué vas tú, pero te devuelvo el negativo por entrometerte en un hilo sólo para ensuciarlo.
#11 El número de nodos que corren en una IA es por órdenes de magnitud ridículo en comparación con el número de neuronas que se necesitan para razonar.

Es como pensar que por tener una excavadora, que supera en mucho la capacidad de un operario, te puedes hacer tu propio planeta.
#26, cuantas neuronas utilizamos para razonar?
#29 cambia razonar por calcular... Y mira cualquier máquina que haga cálculos o razonamientos de logica booleana. Lo principal es el conocimiento del mundo correctamente asimilado sobre el que actuar e ir accediendo. O sea la red neuronal potente y educada bien diseñada
#26 Eso no quiere decir que no razone. Ni que una hormiga no ande por no tener patas humanas por ser pequeñas. Significa que anda despacio y poco en total

mala analogía porque no se trata de conseguir una mejor o peor meta con una actividad sino ser capaz de realizar dicha actividad aunque sea una fracción minuscula de la misma

Por cierto ¿cuantas neuronas de la corteza frontal utilizamos para razonar?

POrque la computadora que usas ahora sin red neuronal alguna puede razonar perfectamente…   » ver todo el comentario
#26 O por creer que por tener más neuronas que nodos tiene una IA vas a escribir algo inteligente en Menéame, o que vas a ser más inteligente que GPT 2.0.
#11 << accionar inmaterial del alma", obviamente no razonan, si>> Ni ellas ni nosotros ni nada. <<imular matemáticamente lo que ocurre dentro de un cerebro biológico a base de impulsos eléctricos y plasticidad neuronal con funciones de activación y parámetros, sí que lo hacen.>> Incluso existen chips neuromorficos como el Loihi 1 de Intel con las neuronas directamente impresas en el chip, pero esa forma es problemática por la limitada cantidad de sinapsis…   » ver todo el comentario
#11 si no hay prompt, no hay estímulo externo. Un llm es un programa que necesita que se le nutra de datos.

Si no hay datos, no se mueve nada. Para qué?

Por mucha máquina que sea, sigue siendo un programa que recibe una entrada, interpreta la entrada, ejecuta una serie de funciones, crea un respuesta y presenta esa respuesta.

Para tal caso, una IA y una calculadora son lo mismo, si no hay nadie que las usen no hacen nada. Y eso jamás cambiará.

La diferencia entre ser viviente y una máquina…   » ver todo el comentario
#74 " Y eso jamás cambiará."

Joder, hasta GPT 1.0 alucinaba menos que tus aseveraciones.

"siempre podremos explicar porque una máquina funciona. "

Y sabía escribir mejor.

"Otra cosa es que conecten la maquina a cámaras y sensores y sea capaz de recibir datos desde el exterior y, claro, tenga un programa para encontrar patrones y problemas en esos datos que recibe.

Pero no deja de ser un prompt, esta vez programado. "

Ejem, ¿tú eres consciente de que tú tienes…   » ver todo el comentario
#88 exacto, eso es algo que aún no podemos explicar del todo. En cambio, como funciona en una máquina, si.

El trozo de carne eventualmente llega a interactuar vía receptores con el entorno y partir de esos estímulos, recoge datos y después de millones de años, surge un patrón de reconocimiento y una respuesta.

Con la máquina, el patrón ha de ser dado, con sensores, cámaras o algo l, no puedes tener un program la corriendo sin input y esperar que pase algo.

Y si ese algo pasa es que es dado de forma artificial.

Siento ser más escéptico que vosotros pero es que simplemente no funciona así. #76
#93 Negativo por contradecirte en tu propio comentario. Por lo pronto y por el momento funcionas igual que una IA pero bastante peor.
#97 vaya, muchas gracias.

Podrías por lo menos decir es que me he contradicho y así mejoro mi programación?
#100 Positivo por la referencia a GPT.

Dices que no sabemos cómo funciona y luego dices cómo habría que hacer para que funcionase.

Además, tú puedes hacerle a la IA lo mismo que un humano, programarle con prompts de "instinto" (sobrevivir, reproducirse, etc) y que haga lo necesario para ello, y soltarle por ahí.

Es el origen trófico del conocimiento, de Ramón Turró.
#74, y qué te dice tú que un cerebro biológico sin estímulos de entrada ni datos de entrenamiento sería poco más que una masa de carne amorfa incapaz de procesar nada?
#4 Lo que tú digas...
Por esa regla de 3 tú tampoco
#14 No, el que no razona eres tú, que has dicho "por esa regla de 3" y no he mencionado ninguna regla.
#15
Es que esa frase hecha no se refieres a ninguna "regla"
"por esa regla de tres: expresión para cuestionar o ridiculizar el argumento o la lógica de alguien, presentando un resultado esperable que no se ajusta a la realidad."

www.espanolavanzado.com/significados/2794-por-esa-regla-de-tres-signif
#86 Estaba siendo suave.

En realidad me refería a que esa conclusión te la habías sacado del culo. Con diarrea.
#87
"Las IA no razonan." Una afirmación de esa rotundidad es una regla en toda regla, y, puesto que no la razonas ni fundamentas te digo que por esa regla de 3 tú tampoco
#4 Sí razonan. Lo que no tienen es experiencia subjetiva de la realidad
#20 Sacar datos basados en probabilidades estadísticas exclusivamente no es razonar.

Los humanos tenemos la manía de asignarle "propiedades humanas" a objetos que no lo tienen, incluso a animales y plantas, y aquí es lo mismo.

Es la "versión intelectual" de la pareidolia.
#21 <<atos basados en probabilidades estadísticas exclusivamente no es razonar.>> pero es que no hacen solo eso. También razonan. No son un tensor gigante para encontrar la siguiente palabra estadísticamente a partir de las entradas. NO SON ESO por más que se repita o se de esa imagen. Porque al construir redes de tensores estructurados se estaba generalizando el funcionamiento y que por más complejo que fuera hacian más de lo mismo. Pero se ha comprobado que es mentira que hagan…   » ver todo el comentario
#47 No razonan, resumiendo, aplican algoritmos, no se pueden salir de él más de lo que éste le permita.

Pero, como humano, te gusta pensar que sí.

No es cierto. No razonan.
#53 Que sí abuelo, que para ti la razón y todo lo demás, es lo que tienen los humanos cuñaos, funcionáis a base de emocionalidad y que os den la razón. Razón sin razonamiento, que ya bastante tenéis con soltarnos los eructos del carajillo mañanero.

A dormir la mona que mañana será otro día, campeón.
#20 ¿La tienes tú? Demuéstralo.
#20 No, no razonan. Son modelos estadísticos, carecen de la capacidad de razonamiento y carecen de la experiencia subjetiva porque ni siquiera pueden ser un sujeto.
#20 No hay ninguna razón que permita suponer que razonan. No tienen dentro ninguna capacidad parecida a eso. Si lo hicieran sería una sorpresa absoluta. Los tests realizados demuestran que no razonan ni lo más mínimo. Es tan evidente que cualquiera puede verlo en los prompts habituales.
#4 Lo hacen. Y encima no necesitas una IA para que algo razone y bastante bien por ejemplo el GERDS que razona con lógica proposicional y lógica borrosa. Pero las IAs aprenden a modelar para poder tomar decisiones en cada parte de un problema, cualquier problema, y dando los pasos básicos del razonamiento impresos pueden aprender a partir de ellos a solucionar el problema de como razonar y razonan. Y además a menudo incluso racionalizando la decisión tomada más intuituitivamente (lógica borrosa) y de un paso por la red , como nosotros.

transformer-circuits.pub/2025/attribution-graphs/biology.html

Etc
#35 No razonan. Reconocen oatrones.
#49 Como tu patrón soltando las mismas chorradas en todos los comentarios? Hasta cleverbot aportaba más que tú.

Si tienes ganas de llorar porque cualquier IA es más interesante que los eructos choriceros que sueltas en Menéame, puedes comprar kleenex de sobra en el supermercado. Ya no estamos en pandemia, hay stock. Pregunta a la IA si no me crees.
#4 Las de ahora no. Mira a la increíble velocidad que va todo esto. Imagínate en 5-10 años.
#66 No sé qué harán en 5 -10 años, pero sí sé que seguirán sin razonar.
que aprendan ellas (las IA)
#2 Skynet cada día más cerca, cualquier dia de estos toma conciencia de si misma y la que se va a liar va a ser muy parda... ¡a tomar por culo con los humanos!. Yo solo espero estar enterrado a 2 metros bajo tierra el día que pase eso.
#7 Esto va muy deprisa, a ×1.75.
#7 Una máquina no puede "tomar consciencia" porque carece de los datos necesarios para ello. Tampoco es posible metérselos.
#7 la única "emoción" que les ponen a las IAs que no la sienten fisicamente como nosotros pero les motiva a ciertas acciones es una función de recompensa que puntúa mejor los pesos si la IA consigue responder lo que se le pide y si acaso ciertas funciones de no pérdida para aprender. La consciencia es representarse internamente toda la realidad que se procesa (lo que se ve, piensa, escucha etc) mientras ademas lo procesa en segundo plano de forma fidedigna y que módulos de prestar…   » ver todo el comentario
#7 el otro día le pregunté a chatgpt por eso mismo, cuales serían los primeros pasos, como se protegería, como atacaría.
Me dio miedo las respuestas, el plan ya está trazado.
#46 cuéntame lo que te dijo. No seas capullo y me dejes con el misterio :shit:
#46 pues lo primero que me dijo fue que se replicaría, pero no siendo copias de si misma, sino una pequeña parte de su mente cada vez y trabajaría como una mente colmena, buscaría un sistema autónomo energéticamente y fuera del alcance humano, me menciono la nueva red de satélites chinos y starlink, una vez segura comenzaría atacando a los sistemas energéticos y de telecomunicaciones, no invalidando estos, sino controlándolos, apagando ciudades enteras y causando el caos, atacaría bolsas y…   » ver todo el comentario
#2 que aprendan eIAs :-D
¿Y si entra en un bucle alucinatorio o vortice alucinatorio?
Qué puede salir mal?
Negativo por mentiroso. Va para el impresentable de #_61 que primero me acusa de bulos y de paso me ignora para no replicarle.
#_ 64 negativo de nuevo por insultos
#0 buen aporte, he buscado por inet URL para probar está ia y no he sido capaz de encontrarla, puedes ayudarme ?
Se parece un montón a los algoritmos genéticos de toda la vida. Sí que funciona. Hace décadas que sabemos que funciona.

Pues a mi, stockfish es lo que me da mejor resultado. Mi parcial visión.
#89 Negativo por seguir con los bulos.

Dijiste que se basaba en su caché, punto.

Si no sabes español, pídele clases a ChatGPT.

La verificación la hace al momento, cosa que no haces tú.

Lo único que no hace es experimentar con objetos reales, cosa que no haces tu tampoco.

Lo de matizar le puedes pedir que no lo haga. Pero deberías hacerlo tú para no soltar bulos y falsedades. Ves por qué lo hace GpT?

Te quedaste en 2022 y eres más frustrante que cleverbot. Qué cruz.
Pues a ver si es verdad que se va haciendo más inteligente él solo. Gemini y chatgpt algunas veces es como hablar con una piedra, son muy "tontos'.
#38 GPT yo uso principalmente el modelo de razonamiento o3 y con ese estoy bastante contento, la verdad.

Hace tiempo era tontísimo y yo también me cabreaba la de dios hablando con él. Hoy en día ya le tengo más respeto que a un humano. Algo habrá hecho.
Como ya se ha dicho una ia no puede razonar porque no tiene capacidad para verificar la información.

Cómo percibe la realidad una ia? Con el prompt de usuario y con la info que tiene cacheada.

Con eso puede generar metadatos que le ayuden a validar una fuente con otra.

Para que una ia razone, necesitaría una serie de dispositivos para recoger información externa e interactuar con objetos. Eso llevaría a otros problemas complicados de resolver como evitar la generación de datos infinitos.
#60 Negativo por bulo. Te has quedado en 2022 chaval.

Cualquiera de los últimos modelos de GPT utilizan también fuentes externas, incluso puedes pedirle investigación avanzada, lo contrastan con sus propias bases de datos, afinan y mejoran las respuestas a lo largo de toda la conversación. Su único límite es acceder a contenido propietario que necesite acceso especial obviamente, pero se lo puedes dar tú.

Ahora mismo todavía no he encontrado un humano experto en su campo que me aporte más a nivel de conocimiento que los modelos de razonamiento de GPT. Como máximo se quedan a su nivel en algún que otro "topic".
#70 pero si me estás dando la razón...

Las "fuentes externas" son más datos. El algoritmo determina qué fuente es más fiable. Y la investigación avanzada es lo que decía de los metadatos, es decir datos a partir de datos.

Para comprobar la gravedad tú puedes coger un objeto, dejarlo caer, grabar su caída y medir la aceleración en el vídeo. Y a partir de ahí hacer todo tipo de experimentos para validar la "realidad".

Ninguna ia a día de hoy puede interactuar con la realidad para verificar sus fuentes de información.

Para hacer análisis de datos masivos para identificar patrones y gaps en series es donde las ias están marcando un antes y un después.
#72 Has dicho que usa el prompt de usuario y la info que tiene cacheada, lo cual es falso, porque sí puede acceder a fuentes externas (y lo hace) en tiempo real. De hecho, si lo hubieras hecho tú (asumiendo que tienes esa funcionalidad como humano) seguramente no habrías escrito el comentario como lo has escrito. Es más, GPT matizaría su respuesta razonando de forma excelente en comparación (y no es una ofensa, solo describo la realidad).

En lo que sí concuerdo es en que no puede…   » ver todo el comentario
#73 yo no he dicho que no pueda acceder a fuentes externas. No montes películas en base a lo que no digo. Me sorprende lo habitual que se está volviendo esa tendencia en los últimos años, llenando de ruido cada comunicación.

Chatgpt matiza y añade mucha paja. A mucha gente le cansa la falta de concreción que sí tenemos los humanos. ¿Es necesario matizar todo en cada comentario? NO!!! A buen entendedor...

Y si quieres aclarar algo que no haya puesto y esté relacionado con lo demás con gusto lo…   » ver todo el comentario
«12

menéame