Altman asegura que una de las áreas más importantes de progreso para OpenAI está en la capacidad de razonamiento. Según el CEO de OpenAI, GPT-4 puede actualmente razonar de forma muy limitada, por lo que espera que GPT-5 destaque más ampliamente en este aspecto.
#20tu cuando quieres decir algo vas eligiendo las palabra de manera aleatoria?
O sí, que yo sepa la neurología aún no ha aclarado esto, tu lo sabes por tus 33 no?
#20, si los modelos de lenguaje se limitasen a construir frases seleccionando palabras de forma aleatoria, la mayoría de sus respuestas no solo no tendrían sentido, sino es que además no parecerían naturales.
#2 Nuestro cerebro tiene un periodo de aprendizaje y es mas que consultar enormes bases de datos. Para imitar al cerebro y llegar a tener un nivel de consciencia todavia falta. Nuestro cerebro es imitable, pero no se ha conseguido.
De todas formas imitar nuestro cerebro nos puede llevar a crear un Netanyahu, no se si eso seria bueno.
#1 si pueden, ¿un coche es una imitación de unas piernas? Pues no, las maquinas no imitan. Tienen diferencias que le otorgan ventajas o inconvenientes.
Las IAs ya han hecho deducciones superiores a las humanas. Han descubierto nuevos modelos aerodinámico s, nuevos antibioticos, nuevos materiales, descifran la gramática genética …
#8 He realizado pruebas a pequeña escala con redes neuronales y a las máquinas se les da bien reconocer patrones, hay que enseñarle, pero eso y razonar son dos cosas diferentes.
#4 Un factor esencial es como se puede solventar el problema del espionaje industrial con estas herramientas integradas en las empresas. Y si se quiere.
#7 Totalmente. De los prompts que se introduzcan es muy fácil, que no se usen para entrenar a la IA. Eso ya lo hacen muchas versiones de pago de estos servicios, como el de Microsoft.
Y por la parte de datos para entrenar a esas IA, el problema está en que OpenAI y otras compañías usan datos en masa sin preocuparse por el origen y sin ningún tipo de permiso.
#12 Toda la razón, pero eso no significa que las empresas puedan usar todo dato que consigan recopilar para entrenar a sus IA, que luego hay problemas de filtración de información.
Comentarios
No, no pueden razonar, es una imitación de inteligencia basada en millones de bbdd y fuentes donde recopila los datos que devolver.
#1 que es lo que crees que hace tu cerebro?
#2 tu cerebro no usa bbdd y no forma frases de manera estocastica.
#3 tu cerebro no usa bbdd
Define bbdd. Los modelos transformer tampoco guardan los datos como una base de datos tradicional con tablas y tuplas.
no forma frases de manera estocastica
¿Esto como lo sabes? La neurología está en pañales para hacer una afirmación tan categórica.
#9 tu cuando quieres decir algo vas eligiendo las palabra de manera aleatoria? no verdad? pues entonces no funciona como un LLM
#20 tu cuando quieres decir algo vas eligiendo las palabra de manera aleatoria?
O sí, que yo sepa la neurología aún no ha aclarado esto, tu lo sabes por tus 33 no?
#3, un modelo de lenguaje tampoco.
#20, si los modelos de lenguaje se limitasen a construir frases seleccionando palabras de forma aleatoria, la mayoría de sus respuestas no solo no tendrían sentido, sino es que además no parecerían naturales.
#2 Nuestro cerebro tiene un periodo de aprendizaje y es mas que consultar enormes bases de datos. Para imitar al cerebro y llegar a tener un nivel de consciencia todavia falta. Nuestro cerebro es imitable, pero no se ha conseguido.
De todas formas imitar nuestro cerebro nos puede llevar a crear un Netanyahu, no se si eso seria bueno.
#1 si pueden, ¿un coche es una imitación de unas piernas? Pues no, las maquinas no imitan. Tienen diferencias que le otorgan ventajas o inconvenientes.
Las IAs ya han hecho deducciones superiores a las humanas. Han descubierto nuevos modelos aerodinámico s, nuevos antibioticos, nuevos materiales, descifran la gramática genética …
#8 Buenos días,
Deducir y razonar son dos cosas a años luz una de la otra.
Razonar implica entender tu entorno, entender el mundo que te rodea, y mentir.
Nada hasta ahora tiene ese entendimiento.
#8 He realizado pruebas a pequeña escala con redes neuronales y a las máquinas se les da bien reconocer patrones, hay que enseñarle, pero eso y razonar son dos cosas diferentes.
#1 Razonar, no razona. Pero se parece mucho a razonar.
#1, las bases de datos existen desde los años 50, la capacidad se razonamiento de modelos como GPT es mucho más que una consulta en una base de datos.
#13 Lo se y tener conciencia es mucho más de lo que hacen ahora.
#18, pero es que para razonar no hace falta tener conciencia.
¿Y seguirán usando todo dato que puedan recopilar, sin preocuparse por si el autor da permiso o no para ello? En ese tema no les interesa avanzar.
#4 igual que tu cerebro
#6 No compares, ningún humano tiene capacidad para rastrear Internet de manera masiva como hacen estas compañías.
#4 Un factor esencial es como se puede solventar el problema del espionaje industrial con estas herramientas integradas en las empresas. Y si se quiere.
#7 Totalmente. De los prompts que se introduzcan es muy fácil, que no se usen para entrenar a la IA. Eso ya lo hacen muchas versiones de pago de estos servicios, como el de Microsoft.
Y por la parte de datos para entrenar a esas IA, el problema está en que OpenAI y otras compañías usan datos en masa sin preocuparse por el origen y sin ningún tipo de permiso.
#4, nos iría bien como especie dejar de sacralizar el concepto de propiedad intelectual.
#12 Toda la razón, pero eso no significa que las empresas puedan usar todo dato que consigan recopilar para entrenar a sus IA, que luego hay problemas de filtración de información.
#14, sí, pero esto tiene más que ver con el derecho a la privacidad que con la propiedad intelectual.