#13 en general desde mi punto de vista los productos tecnologicos de software pasan por diferentes fases, la de mierdificacion (que es en tono jocoso) es cuando se cargan el producto directa o indirectamente por la razon que sea hasta que el producto muere.
#21 ¿Eres un bot / ia? Pregunta por el caso concreto de StackOverflow, donde no sé dónde ves la mierdificación. Lo que lo ha matado es la IA, es completamente obvio.
#21 Creo que te pregunta dónde se encuentra esa "mierdificación" en el stackoverflow ya que no parece muy compatible con su definición. De hecho, Prosus compró Stackoverflow en 2021, donde ya un poco antes había una ligera tendencia a la baja pero ya desde entonces se fue para abajo.
#7 stack overflow es un foro, no es un producto mierdificado. Su problema es que la gente ya ni pregunta ni lo consulta porque cualquier IA es infinitamente más rápida y concisa. IAs que han aprendido en gran parte leyendo foros de stack overflow. Pero el foro en sí no se ha mierdificado
#38 No. La IA no genera conocimiento.
Si ahora surge una tecnologia nueva (un lenguaje, un framework, una plataforma) , la IA no va a tener ni puta idea de como resolver los problemas que la gente presente. Solamente otros desarrolladores que han pasado por el mismo problema van a poder resolver esas consultas.
La IA no experimenta el mundo real, los ingenieros si.
En mi opinión, creo que empezará a haber más hermetismo por parte de los ingenieros de software, que son quienes tienen el know-how.
#48 ¿Qué tiene que ver que la IA no genere conocimiento a que el número de profesionales que lo generan se reduzca al mínimo porque simplemente la mayoría de los trabajos no generan conocimiento nuevo?
#64"la mayoría de los trabajos no generan conocimiento nuevo"
Vaya invent... conocimiento se genera cada día, en todos los trabajos, incluso en tareas que parecerían irrelevantes.
La realidad está llena de detalles y matices, y la IA únicamente los conoce, gracias a la comunicación que ha hecho de ellos, la gente que los ha experimentado.
#65 Acuérdate de tus palabras en 10 años...
La mayor parte de las cosas que los seres humanos hacemos día a día, en el trabajo y lo que no es el trabajo. son un cortapega de lo que ya hemos hecho o hemos visto hacer a otros. No pienses que somos tan especiales como para generar algo nuevo cada instante de nuestra vida porque no es cierto ni tenemos semejante capacidad.
#48, basta con que se lea la documentación, qué digo la documentación, basta con que se lea el código sin ni siquiera comentar y podrá responder cualquier duda mejor de lo que lo hace cualquier foro.
A mí me cuesta mucho creer que el que haya aparecido una tecnolgía capaz de convertir lo que se hacía en semanas a cuestión de horas no va a tener ninguna clase de impacto en el mundo laboral, la verdad.
#67 Yo no he dicho que no vayan a tener impacto.
Pero la documentación, nunca va a proporcionar información sobre los detalles y los matices, esos surgen de la experiencia... y si la IA es tan buena a día de hoy resolviendo problemas de desarrollo es porque la han nutrido de cantidades ingentes de documentos donde esa experiencia está plasmada, como StackOverflow. Si StackOverflow desaparece, a ver con qué se entrenan a las IAs del futuro.
Repito, los LLMs no generan conocimiento, porque no experimentan el mundo (pero son muy buenas navegando en el conocimiento ya documentado).
#78 Yu enlace empieza asi: "Presentamos un estudio sobre el descubrimiento matemático semiautónomo"
No, no generan conocimiento, porque no experimentan el mundo, carecen de una meta, y de voluntad.
Por no decir que las LLMs no tienen aprendizaje continuo, se entrena un modelo, y se lanza para ser consumido.
Ninguna interacción, ningún análisis que hagan, afecta al modelo en absoluto, es un artefacto estático e inmutable.
#1: También hay que considerar una cosa: es el volumen de preguntas, no el volumen de uso.
Es decir, hay gente que entra, encuentra su pregunta ya resuelta y no repite la pregunta, por eso con el tiempo se pregunta menos, y aquí la IA no solo tiene un papel en plan copiloto (como Copilot y similares), sino también que si tú escribes una pregunta en Google, aunque no coincida literalmente con la pregunta de StackOverflow, te lleva a ella, cosa que antes quizás no siempre pasara y eso derivase… » ver todo el comentario
#55 Seguro que el haber un menor pool de preguntas sin respuesta efectivamente afecta. De hecho, el volumen de nuevas preguntas hacía años que ya venía cayendo, es posible que en parte debido a ese efecto. Sin embargo, también parece innegable que la IA entró como un elefante en una cacharrería, especialmente a partir de 2023.
La primera versión de chatgpt salió en noviembre de 2022, y ahí ya se observa un primer golpe muy fuerte. Las sucesivas generaciones de LLMs han llevado el volumen prácticamente a 0.
Probablemente el volumen de preguntas seguiría cayendo con el tiempo, pero hubiera tardado muchísimo más en llegar a los niveles actuales.
#60: Es que además hay que tener en cuenta el tipo de preguntas:
- Preguntas habituales que se hacen por primera vez.
- Preguntas rebuscadas que se hacen por primera vez.
- Preguntas habituales reiteradas.
- Preguntas rebuscadas reiteradas.
Las primeras solo se pueden hacer una vez porque una vez hechas, las siguientes similares pasan a la tercera categoría. Las de la tercera categoría quizás solo las hagan usuarios sin mucha experiencia, sin habilidad para buscar... que antes llegaban y… » ver todo el comentario
Ayer estuve toda la tarde intentando encontrar pq no funcionaba una librería con gemini, claude y chat gpt. Al final encontré la solucion en un post de stack overflow.
#14 Yo igual para un problema que nos surgió tras una subida de versión. Gemini y GPT cada uno diciendo veinte causas, y al final era un bug de esa versión y había que subir a la siguiente. Por supuesto, ninguna de estas maravillosas herramientas ayudó en nada, y la solución la encontré en un post del github de la librería.
#14, #23, este es un ejemplo bien claro de por qué en ciencia, las evidencias anecdóticas no tienen ninguna clase de validez empírica. A pesar de que tu experiencia de ayer parece dar a entender que Stack Overflow sigue siendo super útil al lado de lo inútiles son los LLM a la hora de la verdad, los datos de visitas de Stack Overflow basados en una base potencial de millones de usuarios, indican que tu caso es muy excepcional y que a la mayoría de la gente le basta y le sobra con los LLM, sino la gente seguiría recurriendo a Stack Overflow periodicamente y esto se vería reflejado en el número de visitas.
#2 Volverá de alguna otra manera. Los LLM son muy buenos haciendo lo que se supone que tienen que hacer. Muy malos con lo demás. La fuente fundamental de las respuestas que hoy se dan en ciertos espacios vienen de contribuciones en la propia StackOverflow. Si disminuyen, la IA cada vez dará resultados peores para resolver problemas que nazcan estos años y hacia el futuro, por lo que de nuevo se necesitará un lugar donde seres humanos compartan ideas. Y volverán a intentar sacar de ahí contenido para nuevos LLM.
#32, stack overflow empezó la bajada hace 2 años y los modelos de IA han seguido mejorando sin inmutarse, tu afirmación es más un acto de fe que algo que se observe en ninguna tendencia. Mi apuesta es que casi nadie va a escribir una sola línea de código fuera del ámbito académico en 5 años, siendo muy conservador.
#69 Estoy todavía en fase de negación. Había pensado algo parecido a eso. Por eso puse al final el "O no", porque la historia no se repite, aunque a veces rime.
Normal, el SWE Benchmark ya fue saturado el año pasado.
Ahora faltan los FrontierMath, pero se están encontrando con una paradoja no tan paradójica.: después de saturar los benchmarks de coding, se barruntó, a priori en buena lógica, que los siguientes en caer serían los de matemáticas. Y más o menos iban cayendo (el último, el Putnam Benchmark de 2025, aunque algunos lo consideran más fácil que algunos problemas de las últimas IMO, de los que todavía ninguna IA ha resuelto dos problemas con… » ver todo el comentario
Si bien, los gpts están siendo principales causas, aún muchos encontramos respuestas de errores extraños y casos raros. En lo que se refiere a hacer preguntas, con dos contestaciones con clara soberbia y prepotencia, a dos preguntas totalmente válidas, tuve suficiente, o hacen limpieza o el barco se les termina de hundir.
#28#18 ahora mismo el mayor filon de datos de entrenamiento esta en los repositorios tipo guthub. Lo que tiene de bueno SO como datos de entrenamiento eran las preguntas con las dudas y problemas tipicos de usuarios inexpertos y no tan inexpertos... #19 si el sitio cierra y con el la info, los que tendrán ventaja son los que ya se descargaron y entrenaron sus modelos con esa información.
#19 todos los sitios webs desaparecen y todo conocimiento se borrara, antes o despues, en cualquier caso, creo que stackoverflow precisamente tendrán backups de bases de datos de sobra
#10 y con ello llegará el colapso de los modelos. Cuando todo esté hecho con IA, no se podrá entrenar a la IA con los datos generados por la propia IA, porque eso lleva irremediablemente a datos de salida de mala calidad, lo que se conoce model collapse:
Me recuerda al acero de bajo fondo, que es el acero de los barcos hundidos antes de la caída de las bombas de Hiroshima y Nagasaki, muy valioso para determinados usos, porque todo el acero… » ver todo el comentario
#28 bueno, el acero ya es otra vez usable ya que ha pasado mucho tiempo desde los últimos petardazos nucleares. Y yo espero que con esto pasará lo mismo. En un tiempo otra vez hará falta un sitio donde mirar las dudas tu mismo.
#53 no es cierto, la radiación permanece en la atmósfera por siglos, y aunque ha bajado muchísimo, sigue habiendo la suficiente como para que el acero resultante tenga demasiada radiación para determinados usos específicos. Además de que el acero que se produce hoy usa chatarra reciclada que ya está contaminada.
Pero volviendo a la IA, evidentemente no va a desaparecer como pasó con las pruebas nucleares, sino que va a ir a más, y por lo tanto los datos cada vez estarán más contaminados.
Creo que se puede incluir un texto como descripción muy fácilmente para los meneos y no debería permitirse un meneo sin descripción. No votaré negativo.
#30 sería más adecuado errónea por no tener texto descriptivo que microblogging y microblogging se usa muy mal en general. Acepto pulpo pero creo que te arriesgas a menos negativos si intentas hacer un resumen muy descriptivo. Estilo: está página web cuenta con los datos de tal y tal. Sin inventar nada. Solo es un consejo y lo que haría yo, nada más. Un saludo.
¿Y si sale un nuevo lenguaje quién va a alimentar a las IAs? porque que yo sepa no sacan su conocimiento de la nada y si no hay humanos que desarrollen en el nuevo lenguaje con sus errores, aciertos y dudas planteadas/respondidas en sitios como StackOverflow, se va a quedar en nada.
Ah ya, que se le está proporcionando a Github entrenamiento gratis.
La IA dado cierto nivel entrenamiento, solo necesita conocer las especificaciones técnica y la documentación de los frameworks-lenguajes-librerías para ser capaz de elaborar respuestas. El modelo no tiene por qué estar fijado a lo que se le entrenó. Lo que se le entrenó generó ideas y patrones abstractos, no solo implementaciones concretas. Digamos que el modelo puede ser un genio de la programación, no necesita ser entrenado de nuevo desde 0 en… » ver todo el comentario
#39 no es así exactamente. Cada lenguaje sobresale en un campo, con diferencias sutiles pero fundamentales que pueden hacer diferencias abismales a la hora de programar, sobretodo mientras el nivel sea más bajo. Basta con recordar la enorme (y larguísima) discusión que hubo en los desarrolladores del kernel de Linux para implementar funciones con Rust o el hecho q programen en C y no en C#. Puedes ser un genio de la informática dedicando toda tu vida a C++... Y luego costarte mucho pasar a… » ver todo el comentario
#31 Nuevo lenguaje? Los lenguajes informáticos van a tender al lenguaje natural que la IA transcribirá directamente a lenguaje máquina. La actual programación por IA solo es un paso de transición a lo que será en 10 o 20 años. Ahora mismo no dejan de ser asistentes. En el futuro serán los programadores y el ingeniero será un simple director y organizador del proceso sin intervención directa, y que para proyectos relativamente simples no harán ni falta. Seguramente algún programador clásico… » ver todo el comentario
#40 lo mismo puedes decir del lenguaje matemático... Y no se puede reemplazar.
No hay forma coloquial o natural de expresar ciertos conceptos matemáticos o informáticos. Es difícil explicarlo para un lego en la materia, pero si tienes experiencia con programación veras q hay conceptos que solo pueden expresarse de forma matemática, fisica o informática. No en lenguaje natural
#44 El lenguaje matemático es un descriptor útil del mundo. Prueba de ello es que lo usamos entre nosotros. El lenguaje C o .net no hace nada que no haga el lenguaje máquina. Es solo un paso intermedio y que llegará a ser innecesario salvo para tareas muy específicas por parte de gente muy experta.
#47 Cierto. Pero una cosa es que exista dicho lenguaje y otra que se use de forma habitual. Como ya he dicho habrá una serie de especialistas contados. El resto programara a base de prompts en lenguaje natural simplemente porque será más sencillo de enseñar, más barato de producir y más rápido.
#40 jamás pasará que perderemos el control del lenguaje con el que se programan las máquinas. Hay consenso en que sería muy peligroso dejar que pasara y para que algo así ocurriera, se tendría que reescribir todo el software a ese hipotético lenguaje máquina del futuro que supones. Carísimo, muy peligroso y todo en el nombre de la eficiencia energética?
Además, siempre se necesitará compatibilidad hacia atrás.
#31, todos los markdowns de mis proyectos los hace Gemini, te aseguro que lo último que debe preocuparte es de dónde va a sacar el material para responde, basta con pasarle tu proyecto en bruto y el es capaz de leerlo y entenderlo a la perfección, si alguien desarrolla algo nuevo, no hará falta que le pase siquiera la documentación técnica, bastará pasarle ese algo y será el que LLM redactará la documentación.
#5 para cualquier que estuviese aprendiendo un nuevo stack o simplemente tocando componentes con los que no estaba acostumbrado a trabajar en el día a día, seguía siendo tan relevante como en el 2010. Por muy bien documentado que esté un lenguaje de programación, framework o cualquier otro software, siempre hay casos de uso específicos que no se encuentran en la documentación, que no están bien explicados o que no son fáciles de encontrar o extrapolar, o simplemente que es más rápido buscarlo… » ver todo el comentario
Pensaba que esto era culpa de la IA, pero la bajada empieza ya en 2023 que cayó un 50%, en 2024 cayó algo más del 50% y en 2025 es aún peor y cae un 70% o así, la paradoja es que la IA se nutría de estos sitios, pero a lo mejor ahora aprende a nutrirse de las respuesas positivas que le den a lo que ella hace.
www.meneame.net/story/mayor-accionista-tencent-compra-stack-overflow-1
Dentro de unos años veremos cuando ya nadie sepa solucionar los bugs causados por la IA porque ya nadie entiende el codigo generado.
Ya se empiezan a ver pull request con el argumento de "porque lo dice la IA"
Si ahora surge una tecnologia nueva (un lenguaje, un framework, una plataforma) , la IA no va a tener ni puta idea de como resolver los problemas que la gente presente. Solamente otros desarrolladores que han pasado por el mismo problema van a poder resolver esas consultas.
La IA no experimenta el mundo real, los ingenieros si.
En mi opinión, creo que empezará a haber más hermetismo por parte de los ingenieros de software, que son quienes tienen el know-how.
Vaya invent... conocimiento se genera cada día, en todos los trabajos, incluso en tareas que parecerían irrelevantes.
La realidad está llena de detalles y matices, y la IA únicamente los conoce, gracias a la comunicación que ha hecho de ellos, la gente que los ha experimentado.
La mayor parte de las cosas que los seres humanos hacemos día a día, en el trabajo y lo que no es el trabajo. son un cortapega de lo que ya hemos hecho o hemos visto hacer a otros. No pienses que somos tan especiales como para generar algo nuevo cada instante de nuestra vida porque no es cierto ni tenemos semejante capacidad.
No sabes cuan esquivocado estas
A mí me cuesta mucho creer que el que haya aparecido una tecnolgía capaz de convertir lo que se hacía en semanas a cuestión de horas no va a tener ninguna clase de impacto en el mundo laboral, la verdad.
Pero la documentación, nunca va a proporcionar información sobre los detalles y los matices, esos surgen de la experiencia... y si la IA es tan buena a día de hoy resolviendo problemas de desarrollo es porque la han nutrido de cantidades ingentes de documentos donde esa experiencia está plasmada, como StackOverflow. Si StackOverflow desaparece, a ver con qué se entrenan a las IAs del futuro.
Repito, los LLMs no generan conocimiento, porque no experimentan el mundo (pero son muy buenas navegando en el conocimiento ya documentado).
www.meneame.net/m/actualidad/descubrimiento-matematicas-semiautonomo-t
No, no generan conocimiento, porque no experimentan el mundo, carecen de una meta, y de voluntad.
Por no decir que las LLMs no tienen aprendizaje continuo, se entrena un modelo, y se lanza para ser consumido.
Ninguna interacción, ningún análisis que hagan, afecta al modelo en absoluto, es un artefacto estático e inmutable.
Es decir, hay gente que entra, encuentra su pregunta ya resuelta y no repite la pregunta, por eso con el tiempo se pregunta menos, y aquí la IA no solo tiene un papel en plan copiloto (como Copilot y similares), sino también que si tú escribes una pregunta en Google, aunque no coincida literalmente con la pregunta de StackOverflow, te lleva a ella, cosa que antes quizás no siempre pasara y eso derivase… » ver todo el comentario
La primera versión de chatgpt salió en noviembre de 2022, y ahí ya se observa un primer golpe muy fuerte. Las sucesivas generaciones de LLMs han llevado el volumen prácticamente a 0.
Probablemente el volumen de preguntas seguiría cayendo con el tiempo, pero hubiera tardado muchísimo más en llegar a los niveles actuales.
- Preguntas habituales que se hacen por primera vez.
- Preguntas rebuscadas que se hacen por primera vez.
- Preguntas habituales reiteradas.
- Preguntas rebuscadas reiteradas.
Las primeras solo se pueden hacer una vez porque una vez hechas, las siguientes similares pasan a la tercera categoría. Las de la tercera categoría quizás solo las hagan usuarios sin mucha experiencia, sin habilidad para buscar... que antes llegaban y… » ver todo el comentario
c.tenor.com/OKzitddEJREAAAAC/huele-a-leche-rivera.gif
O no.
Eres desarrollador ?
Ahora faltan los FrontierMath, pero se están encontrando con una paradoja no tan paradójica.: después de saturar los benchmarks de coding, se barruntó, a priori en buena lógica, que los siguientes en caer serían los de matemáticas. Y más o menos iban cayendo (el último, el Putnam Benchmark de 2025, aunque algunos lo consideran más fácil que algunos problemas de las últimas IMO, de los que todavía ninguna IA ha resuelto dos problemas con… » ver todo el comentario
en.wikipedia.org/wiki/Model_collapse
Me recuerda al acero de bajo fondo, que es el acero de los barcos hundidos antes de la caída de las bombas de Hiroshima y Nagasaki, muy valioso para determinados usos, porque todo el acero… » ver todo el comentario
Pero volviendo a la IA, evidentemente no va a desaparecer como pasó con las pruebas nucleares, sino que va a ir a más, y por lo tanto los datos cada vez estarán más contaminados.
Aún así la noticia tiene votos negativos por..."microblogging"
Ah ya, que se le está proporcionando a Github entrenamiento gratis.
Bueno, pues cuando me echen quiero mi parte.
Pero no
La IA dado cierto nivel entrenamiento, solo necesita conocer las especificaciones técnica y la documentación de los frameworks-lenguajes-librerías para ser capaz de elaborar respuestas. El modelo no tiene por qué estar fijado a lo que se le entrenó. Lo que se le entrenó generó ideas y patrones abstractos, no solo implementaciones concretas. Digamos que el modelo puede ser un genio de la programación, no necesita ser entrenado de nuevo desde 0 en… » ver todo el comentario
No hay forma coloquial o natural de expresar ciertos conceptos matemáticos o informáticos. Es difícil explicarlo para un lego en la materia, pero si tienes experiencia con programación veras q hay conceptos que solo pueden expresarse de forma matemática, fisica o informática. No en lenguaje natural
#47 Cierto. Pero una cosa es que exista dicho lenguaje y otra que se use de forma habitual. Como ya he dicho habrá una serie de especialistas contados. El resto programara a base de prompts en lenguaje natural simplemente porque será más sencillo de enseñar, más barato de producir y más rápido.
Además, siempre se necesitará compatibilidad hacia atrás.
¿Serán los mismos tipos que llevan preguntando mierdas desde que abrió la web? Yo elijo pensar que sí.