#32, totalmente de acuerdo, lo que pasa es que el capitalismo ha permeado tanto en la mente de muchas personas que piensan que antes se acabará el mundo que el capitalismo. Lo de las cooperativas es fácil de decir pero no creo que estemos en un punto en el que sea tan facil de aplicar, precisamente porque todavía falta que se desarrolle un poco más esta tecnología junto con la robótica.
#30, soy perfectamente consciente que el fin del capitalismo no es una opción sino un hecho histórico ineludible. De hecho es el hecho que marcará el fin del desarrollo histórico tal y como lo entendemos, para abrir paso a una nueva era. Pero no porque el capital sea gilipollas, sino porque es una tendencia inevitable. Lo que me da bastante miedo, son los monstruos que aparecerán hasta que lo viejo termine de morir y más con una humanidad tan despistada como la que tenemos.
#6, lamento informarte pero de curro hay muy poquito detrás. Poco más que unos cuantos prompts y eso va a pasar con todo. Cosas que costaban meses o semanas de trabajo, se están empezando a poder hacer en minutos y como sociedad todavía no somos conscientes de las consecuencias que esto va a tener.
#25, cierto, es por eso que pienso que las empresas que puedan despedir muchos trabajadores gracias a la IA es porque lo que hacen, se va a convertir en una comodity sin apenas valor a no muy largo plazo.
#22, no, pero decir que la IA no aumenta la productividad es mentira y el capital no es gilipollas y lo sabe. Lo que hay que hacer para empezar es pedir más impuestos a las empresas y una reducción de la jornada laboral.
#19, es cierto que el hecho de que fueran aristocracia obrera los más afectados por la IA explica bastante la instalación en el negacionismo, pero no veo que ahora cuestionen el sistema de base, más bien pretenden volver al pacto social vigente antes de 2020 y eso no va a ser posible.
#1, #3, #5, a mi no me sorprende, la tecnología siempre ha hecho que trabajemos menos para producir más. Es mentira que la tecnología cree más trabajos nuevos de los que elimina los que dicen esto basándose en el mercado laboral del siglo XIX y el actual. Ellos se fijan sobre todo en la variedad y especialización de los trabajos y no tanto en las cantidad de trabajo socialmente necesario para producir bienes, hoy tenemos jubilación, pensiones, vacaciones, seguridad social o educación a unos niveles impensables durante las primeras décadas de la revolución industrial, así que no es raro que la IA elimine trabajos. De hecho a mí me cuadra y cualquier programador que use la IA y sea mínimamente honesto intelectualmente tiene que reconocer que lo que hacíamos en semanas hoy lo podemos hacer en horas.
Y de hecho esto es una enorme oportunidad para que podamos trabajar todavía menos horas sin renunciar a un mejor nivel de vida si el reparto de los beneficios se hace de forma que no sea el capital el que gane frente al trabajo.
Sin embargo, siento que la clase trabajadora en su mayoría se siente tan profundamente derrotada, que es incapaz de concebir que si hay una mejora que haga que podamos trabajar menos, pueda salir beneficiada en la ecuación y me entristese. Es como si los trabajadores solo aspirasen a que les sigan explotando como hasta ahora mientras no les molesten, ni les hagan pensar demasiado y me parece profundamente triste. El negacionismo de la realidad jamás nos llevará a un buen puerto.
Como reflexión dejo el discurso del Premio Nobel Geoffrey Hinton por sus contribuciones en el desarrollo de la IA durante la ceremonia de entrega del galardón y que creo que es muy pertienente en noticias como esta: youtube.com/shorts/odUjxJy0YMo?is=xjOWAdNewfraGtdg
#1, concuerdo contigo con que el ejemplo del piano es malísimo, pero para determinar si una IA comprende o no, en qué propones que nos basemos? Por qué para evaluar el nivel de comprensión a un ser humano basta un examen de comprensión lectora y para una IA no? A mi me parece una buena forma de evaluar lo buena que es una IA a falta de que alguien me sugiera algo más interesante que sea medible y replicable.
#4, las soluciones a los problemas sí que las han publicado, lo que no han publicado es el modelo que lo ha hecho. Hay dos opciones, creerse lo que dicen o pensar que han resuelto ellos a mano y de golpe 5 problemas que llevaban 40 años abiertos y se inventan que lo ha hecho una IA.
#72, sí, pero cada año va avanzando y desde otoño del año pasado he visto una aceleración así que no me sorprendería que este año si pudiesen resolver todos los problemas.
#70, pero no son preguntas tan sencillas como buscar un dato concreto, son mucho más difíciles.
En cuanto a las IMO ya consiguieron el año pasado estar entre los resultados de los estudiantes que ganaron la medalla de oro, pero todavía pueden mejorarlos si son capaces de responder bien todas las preguntas, sobre ARC-AGI es cierto que no he visto resultados todavía y pueden ser interesantes y respecto a FrointerMath es donde más vamos a ver este año si los modelos van camino a superar el intelecto humano porque son preguntas abiertas matemáticas y algunas representan contribuciones mayores dentro del campo, si se logra resolver solo una de las del Tier superior durante este año, creo que realmente estamos a las puertas de algo muy grande, pero estoy seguro de qui si eso pasa, habrá gente que todavía seguirá siendo escéptica, porque llegados a este punto, nada va a cambiar la opinión de algunos.
#68, el Humanity Last Exam no es un benchmark de programación y también lo ha reventado. Es imposible que se haya sobreentrenado con este benchmark porque es privado.
De hecho ha reventado todos los benchmarks, decir que no vale nada porque iguala los modelos anteriores que ya eran muy buenos en un benchmark saturado me parece querer agarrarse a un clavo ardiente.
Respecto a la AGI es un debate que me da mucha pereza porque hasta que no nos pongamos de acuerdo en lo que es, podemos seguir moviendo la portería ad infinitum y decir que todavía no es verdadera inteligencia, pero hace 20 años cualquiera de los modelos frontera que tenemos hoy hubiese sido calificado de AGI. Ya te digo, es un debate que considero irrelevante y me interesa poco, me interesa más ver como a cada iteración siguen mejorando las capacidades de los modelos a pesar de que cuando salió chatGPT no había pocos que decían que los LLM eran loros estocásticos que no tenían recorrido.
#33, te dejas la noticia mensual de que ahora sí, la burbuja de la IA va a explotar y apareceremos como si nada en 2019 donde cualquier herramienta de IA dejará de existir y seguir mejorando. En el fondo el problema es que muchos no paran de confundir deseos con realidad.
#30, al contrario, llevamos escuchando cuñaos desde hace 4 años diciendo que esto no tenía recorrido, que la IA había llegado a su tope teórico. Primero con los 6 dedos de Dall-e y luego con los fallos tontos que hacía chatGPT o con que la IA no puede hacer nada original porque hace un pastiche de lo que ha visto antes, el tiempo ha dejado en ridículo a todos y cada uno de ellos, apostar contra la IA hasta ahora siempre ha salido mal y a pesar de eso aún están aquí, sacando pecho y sin rectificar un milímetro.
#90, tranquilo, que te has explicado perfectamente, has dicho que el CEO no tiene que saber nada de como se hacen las cosas en su empresa y yo no estoy de acuerdo. No es ningún drama, así, que dejemoslo aquí.
Los chinos van a tope con la IA y la robótica bajo la dirección de un Partido Comunista liderado por gente brillante mientras aquí entre negacionistas y tecnofeudalistas vamos por el despeñadero.