#13 en general desde mi punto de vista los productos tecnologicos de software pasan por diferentes fases, la de mierdificacion (que es en tono jocoso) es cuando se cargan el producto directa o indirectamente por la razon que sea hasta que el producto muere.
#21 ¿Eres un bot / ia? Pregunta por el caso concreto de StackOverflow, donde no sé dónde ves la mierdificación. Lo que lo ha matado es la IA, es completamente obvio.
#21 Creo que te pregunta dónde se encuentra esa "mierdificación" en el stackoverflow ya que no parece muy compatible con su definición. De hecho, Prosus compró Stackoverflow en 2021, donde ya un poco antes había una ligera tendencia a la baja pero ya desde entonces se fue para abajo.
Ayer estuve toda la tarde intentando encontrar pq no funcionaba una librería con gemini, claude y chat gpt. Al final encontré la solucion en un post de stack overflow.
#14 Yo igual para un problema que nos surgió tras una subida de versión. Gemini y GPT cada uno diciendo veinte causas, y al final era un bug de esa versión y había que subir a la siguiente. Por supuesto, ninguna de estas maravillosas herramientas ayudó en nada, y la solución la encontré en un post del github de la librería.
#2 Volverá de alguna otra manera. Los LLM son muy buenos haciendo lo que se supone que tienen que hacer. Muy malos con lo demás. La fuente fundamental de las respuestas que hoy se dan en ciertos espacios vienen de contribuciones en la propia StackOverflow. Si disminuyen, la IA cada vez dará resultados peores para resolver problemas que nazcan estos años y hacia el futuro, por lo que de nuevo se necesitará un lugar donde seres humanos compartan ideas. Y volverán a intentar sacar de ahí contenido para nuevos LLM.
#28#18 ahora mismo el mayor filon de datos de entrenamiento esta en los repositorios tipo guthub. Lo que tiene de bueno SO como datos de entrenamiento eran las preguntas con las dudas y problemas tipicos de usuarios inexpertos y no tan inexpertos... #19 si el sitio cierra y con el la info, los que tendrán ventaja son los que ya se descargaron y entrenaron sus modelos con esa información.
#19 todos los sitios webs desaparecen y todo conocimiento se borrara, antes o despues, en cualquier caso, creo que stackoverflow precisamente tendrán backups de bases de datos de sobra
#10 y con ello llegará el colapso de los modelos. Cuando todo esté hecho con IA, no se podrá entrenar a la IA con los datos generados por la propia IA, porque eso lleva irremediablemente a datos de salida de mala calidad, lo que se conoce model collapse:
Me recuerda al acero de bajo fondo, que es el acero de los barcos hundidos antes de la caída de las bombas de Hiroshima y Nagasaki, muy valioso para determinados usos, porque todo el acero… » ver todo el comentario
Creo que se puede incluir un texto como descripción muy fácilmente para los meneos y no debería permitirse un meneo sin descripción. No votaré negativo.
#30 sería más adecuado errónea por no tener texto descriptivo que microblogging y microblogging se usa muy mal en general. Acepto pulpo pero creo que te arriesgas a menos negativos si intentas hacer un resumen muy descriptivo. Estilo: está página web cuenta con los datos de tal y tal. Sin inventar nada. Solo es un consejo y lo que haría yo, nada más. Un saludo.
#5 para cualquier que estuviese aprendiendo un nuevo stack o simplemente tocando componentes con los que no estaba acostumbrado a trabajar en el día a día, seguía siendo tan relevante como en el 2010. Por muy bien documentado que esté un lenguaje de programación, framework o cualquier otro software, siempre hay casos de uso específicos que no se encuentran en la documentación, que no están bien explicados o que no son fáciles de encontrar o extrapolar, o simplemente que es más rápido buscarlo… » ver todo el comentario
Normal, el SWE Benchmark ya fue saturado el año pasado.
Ahora faltan los FrontierMath, pero se están encontrando con una paradoja no tan paradójica.: después de saturar los benchmarks de coding, se barruntó, a priori en buena lógica, que los siguientes en caer serían los de matemáticas. Y más o menos iban cayendo (el último, el Putnam Benchmark de 2025, aunque algunos lo consideran más fácil que algunos problemas de las últimas IMO, de los que todavía ninguna IA ha resuelto dos problemas con… » ver todo el comentario
Si bien, los gpts están siendo principales causas, aún muchos encontramos respuestas de errores extraños y casos raros. En lo que se refiere a hacer preguntas, con dos contestaciones con clara soberbia y prepotencia, a dos preguntas totalmente válidas, tuve suficiente, o hacen limpieza o el barco se les termina de hundir.
¿Y si sale un nuevo lenguaje quién va a alimentar a las IAs? porque que yo sepa no sacan su conocimiento de la nada y si no hay humanos que desarrollen en el nuevo lenguaje con sus errores, aciertos y dudas planteadas/respondidas en sitios como StackOverflow, se va a quedar en nada.
Ah ya, que se le está proporcionando a Github entrenamiento gratis.
La IA dado cierto nivel entrenamiento, solo necesita conocer las especificaciones técnica y la documentación de los frameworks-lenguajes-librerías para ser capaz de elaborar respuestas. El modelo no tiene por qué estar fijado a lo que se le entrenó. Lo que se le entrenó generó ideas y patrones abstractos, no solo implementaciones concretas. Digamos que el modelo puede ser un genio de la programación, no necesita ser entrenado de nuevo desde 0 en… » ver todo el comentario
#39 no es así exactamente. Cada lenguaje sobresale en un campo, con diferencias sutiles pero fundamentales que pueden hacer diferencias abismales a la hora de programar, sobretodo mientras el nivel sea más bajo. Basta con recordar la enorme (y larguísima) discusión que hubo en los desarrolladores del kernel de Linux para implementar funciones con Rust o el hecho q programen en C y no en C#. Puedes ser un genio de la informática dedicando toda tu vida a C++... Y luego costarte mucho pasar a… » ver todo el comentario
#31 Nuevo lenguaje? Los lenguajes informáticos van a tender al lenguaje natural que la IA transcribirá directamente a lenguaje máquina. La actual programación por IA solo es un paso de transición a lo que será en 10 o 20 años. Ahora mismo no dejan de ser asistentes. En el futuro serán los programadores y el ingeniero será un simple director y organizador del proceso sin intervención directa, y que para proyectos relativamente simples no harán ni falta. Seguramente algún programador clásico… » ver todo el comentario
www.meneame.net/story/mayor-accionista-tencent-compra-stack-overflow-1
Dentro de unos años veremos cuando ya nadie sepa solucionar los bugs causados por la IA porque ya nadie entiende el codigo generado.
Ya se empiezan a ver pull request con el argumento de "porque lo dice la IA"
c.tenor.com/OKzitddEJREAAAAC/huele-a-leche-rivera.gif
O no.
en.wikipedia.org/wiki/Model_collapse
Me recuerda al acero de bajo fondo, que es el acero de los barcos hundidos antes de la caída de las bombas de Hiroshima y Nagasaki, muy valioso para determinados usos, porque todo el acero… » ver todo el comentario
Aún así la noticia tiene votos negativos por..."microblogging"
Ahora faltan los FrontierMath, pero se están encontrando con una paradoja no tan paradójica.: después de saturar los benchmarks de coding, se barruntó, a priori en buena lógica, que los siguientes en caer serían los de matemáticas. Y más o menos iban cayendo (el último, el Putnam Benchmark de 2025, aunque algunos lo consideran más fácil que algunos problemas de las últimas IMO, de los que todavía ninguna IA ha resuelto dos problemas con… » ver todo el comentario
Ah ya, que se le está proporcionando a Github entrenamiento gratis.
Bueno, pues cuando me echen quiero mi parte.
Pero no
La IA dado cierto nivel entrenamiento, solo necesita conocer las especificaciones técnica y la documentación de los frameworks-lenguajes-librerías para ser capaz de elaborar respuestas. El modelo no tiene por qué estar fijado a lo que se le entrenó. Lo que se le entrenó generó ideas y patrones abstractos, no solo implementaciones concretas. Digamos que el modelo puede ser un genio de la programación, no necesita ser entrenado de nuevo desde 0 en… » ver todo el comentario