#92, pues suerte no solo en demostrar empíricamente que un modelo de IA tiene o deja de tener conciencia, sino en demostrar que tú y yo la tenemos, porque es imposible.
#4, no, no es verdad. Se dice esto porque hay benchmarks especializados que comparan el desempeño de estos modelos con el de doctores humanos en varios problemas de razonamiento, el principal de ellos es el GPQA.
#5, esto no significa que lo que se esté evaluando cuando le pasas una imagen sea la versión más potente del razonador, que es la que en teoría tiene nivel de doctorado. La falta de rigurosidad del periodista es de traca, pero quien tiene la culpa de todo esto es OpenAI y su falta de claridad.
La culpa de todo eso es de OpenAI, pero no porque su modelo sea malo, que no lo es, sino por presentar las cosas con oscurantismo y con el culo. A estas alturas creo que ni siquiera se sabe si GPT-5 es multi-modal o te enruta a otro modelo cuando le pasas una imagen. Mi apuesta es que es otro modelo, porque en el catálogo de APIs, ninguna variante de GPT-5 admite imágenes como input, así que realmente lo que se está evaluando cuando se le pasa una imagen no es este modelo. En todo caso, la falta de rigurosidad del periodista de no señalar esto también se las trae, no tiene nada que ver evaluar el modelo en modo texto con la versión más potente del razonador que en modo imágenes o audio.
Pero repito, el principal culpable de que todos los que le tienen ganas a la IA se estén lanzando en tromba es la inutilidad de OpenAI a la hora de presentar sus modelos. GPT-5 hubiese tenido que ser el modelo razonador o1 que se presentó el año pasado y este una mera actualización.
#81, falso, es un tipo de inteligencia artificial que iguala o supera la inteligencia humana. Obviamente si empezamos a introducir cosas en la ecuación como el alma, la inspiración divina, los misterios de la cuántica y lo espiritual, una IA jamás podrá alcanzarla.
Si se quiere hacer una aproximación científica y rigurosa al problema existen las pruebas de evaluación, exámenes de matemáticas, tests de comprensión lectora, pruebas de programación, tests de inteligencia y todo lo que se puede medir de forma científica, es decir, definiendo los resultados esperados y comparándolos con los resultados que da el modelo. Al final la forma en que se puede medir la inteligencia de una IA es idéntica a la forma en que se puede medir la inteligencia de una persona.
#2, no lo dice porque esté a favor de que esto pase, sino como advertencia de lo que puede pasar. De hecho y aunque Mo Gawdat haya sido directivo de Google es bastante crítico con el capitalismo y no para de alertar de que este sistema combinado con el potencial de la IA puede terminar siendo terriblemente destructivo para la mayoría.
#68, si has hecho un seguimiento serio de los LLM te hago esta pregunta. Crees que su desarrollo está estancado? Porque los que afirman eso son exactamente los mismos que lo hacían hace 3 años a pesar de toda la evidencia en contra. Y te puedo citar facilmente una decena de benchmarks que la IA ha pulverizado en todo este tiempo.
#65, no, los problemas de las olimpiadas no se pueden resolver con fuerza bruta, es más, suelen ser bastante sencillos en cuanto a cálculos matemáticos, suelen requerir mucha creatividad, pensamiento lateral y por supuesto unos sólidos conocimientos matemáticos. Si fueran problemas solucionables a base de fuerza bruta, se habría logrado este hito hace ya 50 años.
#54, yo lo tengo clarísimo, es una reacción ante el miedo que provoca, una reacción muy humana y natural, yo mismo también estoy muy preocupado por el futuro. Pero me parece que el negacionismo no es la solución para enfrentar los problemas en la vida.
#39, no se que IA usas pero he hecho con 3 prompts. No solo funciona bien el algoritmo de extracción sin devolución, sino que me he tomado el lujo de pedirle que lo implemente dentro del propio juego del bingo.
#43, cierto, tienes que saber lo que haces, pero de ahí a decir que es tontísima... No entiendo como se puede despreciar de esta manera una tecnología que hace 4 años era pura ciencia ficción.
#31, es bienqueda porque está expresamente diseñada para esto. Precisamente en temas de política, psicología y social, está muy alineada para no salirse de una línea muy neutral y normativa, no porque técnicamente sea imposible diseñar IAs que no se comporten así.
#25, no te engañes, todo el mundo la usa, porque saben que en el fondo es mucho más inteligente que ellos en la mayoría de cosas, pero los humanos tenemos una cosa que la IA no tiene, que se llama ego.
#20, lo que nos lleva a la pregunta, ¿de dónde surgen las nuevas hipótesis? Inspiración divina, generación espontánea, de la nada? Porque yo tengo la hipótesis que precisamente surgen de correlacionar toda la información previa igual que si te doy la serie 2, 4, 8... sabrás que el siguiente número de la serie será el 16 a pesar de que nunca lo hayas visto. A lo que voy, todo son cálculos matemáticos, no existe lo inmaterial e incuantificable, no hay nada que no se pueda reducir a una multiplicación de matrices lo suficientemente compleja.
#36, y sin embargo ahí estabas tú, haciendo tu currículum con la IA . Y es lo que pasa, mucha gente criticándo una tecnología que apenas hace 3 años salió a la luz del gran público, pero todo el mundo utilizándola para todo a pesar de que no sea perfecga . Si fuera un churro ya te digo que no la utilizaría ni dios.
#30, casi todos los expertos están dando como fecha para la AGI alrededor de 2030. La verdad es que no se que es una AGI, porque para mi los LLM actuales ya son mas inteligentes que la mayoría de personas en la mayoría de tareas. GPT-5 es un muy buen modelo, que demuestra que el estado del arte sigue avanzando a ritmo imparable, su problema fue la forma de presentarlo y que utiliza un enrutador de modelos para decidir cuando pensar y cuando no. Impaciente por Gemini 3 y las mejoras que presentará OpenAI a finales de año que permitieron lograr el hito de la olimpiada matemática pero que no están incorporadas a GPT-5.
#18, no hay ningún equipo de porgramadores conectando nada, al
menos no de la forma en la que lo dices. Se ha habilitado una interficie para que los LLM puedan dar mejores respuestas utilizando herramientas como lenguajes de programación.
Pero como la IA utiliza esta interficie no se ha programado manualmente, ha aprendido ella misma a hacerlo a partir de ejemplos.
#16, los datos son que GPT-5 alucina muchísimo menos que los modelos anteriores. La mejora en el desempeño de los modelos ha sido constante y no hay signo de estancamiento.