#5#2 Todo lo que mencionas ha pinchado en un momento u otro. Los americanos destruyeron por completo su industria de videojuegos en los 80, con las puntocom perdió dinero hasta el apuntador, y a día de hoy los cines no tienen demasiado claro qué les depara el futuro porque la cosa pinta mal. Una tecnología no tiene que desaparecer para que nos comamos una crisis, basta con que se quemen grandes cantidades de dinero sin saber muy bien para qué y después no consigan recuperarlo.
#2 Todo lo que mencionas ha pinchado en un momento u otro. Los americanos destruyeron por completo su industria de videojuegos en los 80, con las puntocom perdió dinero hasta el apuntador, y a día de hoy los cines no tienen demasiado claro qué les depara el futuro porque la cosa pinta mal. Una tecnología no tiene que desaparecer para que nos comamos una crisis, basta con que se quemen grandes cantidades de dinero sin saber muy bien para qué y después no consigan recuperarlo.
#10 En los 80 voló la industria del videojuego americana por los aires y tardaron un par de décadas en recuperarse, que fueron años de dominio absoluto de los japoneses. Si no hubiese pinchado Atari habrían tenido opciones de expandirse internacionalmente, que en Europa no olimos una consola americana hasta la Xbox, y en Estados Unidos antes de la NES tenían un mercado doméstico de consolas 100% americano.
Ahora estamos viendo lo mismo con la industria del automóvil europeo, que pinta que… » ver todo el comentario
#10 En los 80, la industria usana de videojuegos reventó y quedó como un solar. Sólo hay que leerse las noticias de esa época en la revistas de videojuegos.
#24 Quedó tan convertida en un solar, que detrás vinieron Sega y Nintendo a empezar la primera guerra de las consolas, y detrás de ellas a media decada de distancia, Sony y Microsoft. En Europa Commodore y Sinclair estaban a ver quien era mas fuerte. En PC estaban a punto de surgir monstruos como ID Software o Sierra, a menos de un lustro.
No explotó la industria de los videojuegos. Explotó Atari, y USA empezó a gritar con los brazos en alto corriendo en círculos.
#10 La industria del videojuego cayó más de un 90% allá por los 80 después del boom de consolas que tenían juegos pésimos, la industria se movió más al pc y salieron joyas como wolfenstein o doom, eso sí, después de bastantes años.
#5 Los americanos destruyeron tanto su industria de videojuegos que ahora mismo pesa mas que el cine y la television juntas, y los chinos estan quemando dinero por millardos de dolares para adquirirles. De las puntocom salieron Google y Amazon entre otras, absolutas perdidas de tiempo con servicios que a nadie le interesa. Y a dia de hoy yo me puedo bajar un fichero de 20gb a mi ordenador que le da el insignificante superpoder de entender ordenes descritas en español de la Españistan profunda… » ver todo el comentario
#1#2#6 En 1999, Cisco "invertía" una enorme cantidad de sus beneficios en empresas de Internet emergentes para ayudarlas a montar sus datacenters... con componentes de la marca Cisco.
¿Qué podía salir mal?
NVIDIA también está dando dinero a espuertas a empresas de IA bajo la obligación contractual de comprar tarjetas NVIDIA.
Algunos han usado la imagen de la serpiente que se devora a sí misma y otros memes más "explícitos" para describir estos casos.
No acabará bien.
#2 Esto no es una burbuja que se va pinchar en lo tecnológico, está ahí, podrá valer más o menos pero se seguirá usando. Otro tema diferente es la valoración bursatil.
Las expectativas a parte de ser altas son reales y la IA ha sido algo disruptivo en la forma de hacer las cosas. Simplemente la forma de crear música y video ha cambiado el panorama y ahora cualquiera con ganas y una idea la puede realizar. En la programación lo mismo y en el área que quieras igual.
#1 Yo creo que el pinchazo de la IA se la van a llevar los informáticos, van a sobrar muchos, La IA esta acercando la programación y la informática en general a mas gente y cuando buscas gente para trabajar ya te apañas con FP, no necesitas tantos ingenieros endiosados. Se salvaran los que trabajen directamente en la IA. Va a entrar mucha mas gente con menos formación al sector y puede ser que desplacen a unos cuantos solo porque los nuevos son mas baratos. Eso creo yo en mi humilde opinión.
#7 No sabría decirte. Tal y como está la IA ahora lo peor que puedes hacer es usarla para temas de los que no tengas ni idea, porque en el momento en que la cague no sabrás ni por donde empezar a corregir. De momento no termino de ver a un grupo de personas sin idea de informática y programación gestionando una app exclusivamente por IA. Si en el futuro consigue autocorregirse, revisar errores y cambiar cosas sin romperlas podríamos terminar en un escenario como el que dices.
#12, no tiene absolutamente nada que ver GPT 3.5 con los modelos actuales, es más, si la tendencia es exactamente igual que hasta ahora, tienen razón los que dicen que en 5 años van a ser casi perfectas, lo único que lo puede evitar es que dejen de mejorar como hasta ahora.
#12 no tienen que dejar de alucinar, tienen que simplemente seguir siendo utiles. Y lo cierto es que ya lo son. Arreglar las alucinaciones solo es parte de la mejora.
Y cada vez son mas efectivas y alucinan menos, desde que hacen cadenas de razonamiento (la mayoría)
#7 Aquí un informático (programador). Comento lo mismo que he comentado en otros hilos del estilo: ahora mismo, tras haber estado considerando cómo incorporar la IA generativa a mis procesos de trabajo, mi preocupación sobre ser reemplazado por ésta (que es la misma que siento en el sector en general) es exactamente 0.
Actualmente, es una herramienta que resulta útil hasta cierto punto. Ha reemplazado por ejemplo gran parte de mis consultas en foros como StackOverflow (que es donde… » ver todo el comentario
#14 10-15% de aumento de productividad está muy bien. Cuando pasamos de programar a ensamblador a programar en C, la productividad aumentó por un factor de x4 o por más según las fuentes, y no solo no se despidió a nadie, sino que hicieron falta muchos más programadores. Por si te sirve de referencia. Una birra.
#15 ¡Exacto! A eso me refiero. Ahora mismo (y desde siempre como bien apuntas), tanto la tecnología existente como los límites en la productividad para transformar ideas en realidades son cuellos de botella (hay muchas más ideas y necesidades, que la capacidad para llevarlas a cabo). Hay mucho margen para aumentar la productividad y capacidad tecnológica antes de que todo el caudal de ideas por las que la gente está dispuesta a pagar pueda ser abordado (ni siquiera estoy seguro de que éste sea… » ver todo el comentario
#16 la IA crea más trabajo de programación que el que supuestamente quita, porque permite informatizar cosas que antes no eran informatizables. La cantidad de proyectos que estoy viendo yo ahora con IA embedded por ejemplo es brutal.
La gente tiene que entender que una tecnología solo te hace más competitivo si solo la tienes tu. Si la tiene todo el mundo, se cancela y pasa a ser "baseline". La complejidad de las aplicaciones ahora puede ser mayor. La informática ahora llega a más partes. Esa es la manera correcta de verlo e históricamente verificable porque procesos similares han ocurrido en el pasado varias veces.
#14 Coincido. MI productividad puede haber aumentado entre un 10 y un 25% dependiendo de qué tipos de tarea esté haciendo. Pero obviamente tiene q haber alguien a los mandos que sepa lo que está haciendo.
No me cabe duda de que los empresaurios de turno tratarán de vender juniors + IA como expertos en computación ... pero sabemos dónde va a terminar eso. Chapuzas aún de mayor calibre. "Powered by AI"
Yo creo que el mayor problema lo van a tener (precisamente) los juniors porque ahí sí puede ser complicado que seas competitivo frente a una IA a no ser que destaques mucho.
#7 el día que esa supuesta (y nunca definida exactamente) superInteligencia sea capaz de sustituir a los ingenieros "endiosados" informáticos, también sustituirá a los ingenieros aeronáuticos, a los químicos, electrónicos, arquitectos, etc, etc...
No sé que te hace pensar que la ingeniería informática sea más sencilla de que la ingeniería electrónica, por poner una adyacente (todos los informáticos sabemos un poquito de electrónica, todos los electrónicos saben un
#17 no necesitas una IA para cumplir diseños según reglamentos, hacer un motor de avión es complir la física, las regulaciones, que se pueda meter en una cadena de montaje de forma barata y hacer caso al cliente lo mínimo para que pague.
Programar es hacer caso al cliente.
#7 Está bien para que un desarrollador senior la use como si la IA fuera una desarrollador junior al que le pide cosas, pero las revisa el senior
Si se usa al revés, un junior sin mentor humano acompañado de una IA a la que le acepta todo casi si filtro se convierte en una máquina de producir deuda técnica , puede que ese junior levante un pmv en un tiempo récord y que esté meses implementando features y cerrando tickets a buen ritmo, pero en cuestión de tiempo el proyecto se vuelve inmantenible, con decisiones de diseño que no permiten introducir cambios básicos sin deshacer medio aplicación y posiblemente sin pruebas unitarias que permitan depurar los errores en un tiempo razonable.
#7 Si, y no. La IA acerca la programación a la gente normal, pero si le das IA a un ingeniero ya no tienes un desarrollador: tienes un semidios que puede automatizar y multiplicar sus habilidades. Tienes a un superhumano que puede vencer a sus limitaciones de atención o cansancio.
Ese va a ser el problema: que donde antes necesitabas un equipo de desarrollo de veinte personas, ahora te valen con dos o tres buenos ingenieros. El problema, y la oportunidad.
#54 Pues alguien pagará esos tres sueldos de ingeniero o esos tres ingenieros se pondrán por cuenta propia, y estará en ventaja con los que no los paguen. Un ingeniero que trabaje como cinco genera una cantidad absurda de facturación neta...
#7 Pocos ingenieros he visto que programen mejor que alguien con un CFGS, aun asi estoy de acuerdo , de hecho ya se empieza notar , ya la IA empieza a programar bastante bien y está tocando el ego de muchos.
#1, no lo tengo tan claro, mi predicción es que en 2026 tendremos los primeros anuncios de descubrimientos científicos hechos por IAs, principalmente teoremas matemáticos y nuevos algoritmos, puede que me equivoque, pero si esto se cumple hará que los mercados enloquezcan más.
#1 Están vendiendo potencial y no quiere quedarse nadie fuera que está agravando la situación.
La IA necesita inversiones exponenciales para avances pírricos y no creo que las inversiones vayan a soportarlo. OpenAI tiene contratado con Nvidia 100 GW de AI. Por ponerlo en perspectiva eso es tres veces el pico de demanda en España estos días.
#1 Yo lo veo muy claro. Y para muestra una imagen.
Tienen 64 threads CPU, y 128Gb de VRAM en GPU.
Eso no lo da ningún Intel sin una tarjeta Nvidia de 128Gb (que se paga aparte).
APUs con GPU integradas, con 24Gb no da para LLM decente en local (ni vídeo/Whisper/Speech).
#43 Apple tiene algo parecido pero no es comparable.
Solo de precio, el M1 ya escapa un x10. Y hablamos de bichos que consumen 100W máximo.
Con 2000€ tienes todo y consume como una bombilla de las viejas.
OpenAI ha cerrado un acuerdo circular con AMD. Compra unos 100.000 millones de dólares en chips en 4–5 años y, a cambio, recibe warrants para adquirir hasta el 10% de AMD a 0,01 $ por acción. Esto ha disparado a AMD un 23% en bolsa. Cómo financiará OpenAI la compra? Podría usar el reciente aporte de 100.000 millones de dólares de Nvidia... y al final, quedará Nvidia con el 20% de OpenAI y OpenAI con el 10% de AMD y se formará una estructura tipo chaebol coreano. Fascinante.
no se debe confundir baches con crisis. Yo entiendo por crisis algo que se pierde completamente
Ahora estamos viendo lo mismo con la industria del automóvil europeo, que pinta que… » ver todo el comentario
Mira Terra o Fadesa.
No explotó la industria de los videojuegos. Explotó Atari, y USA empezó a gritar con los brazos en alto corriendo en círculos.
¿Qué podía salir mal?
NVIDIA también está dando dinero a espuertas a empresas de IA bajo la obligación contractual de comprar tarjetas NVIDIA.
Algunos han usado la imagen de la serpiente que se devora a sí misma y otros memes más "explícitos" para describir estos casos.
No acabará bien.
locusmag.com/feature/commentary-cory-doctorow-what-kind-of-bubble-is-a
Las expectativas a parte de ser altas son reales y la IA ha sido algo disruptivo en la forma de hacer las cosas. Simplemente la forma de crear música y video ha cambiado el panorama y ahora cualquiera con ganas y una idea la puede realizar. En la programación lo mismo y en el área que quieras igual.
Discrepo: cuando la cosa pinche va a ser bonita la crisis.
Y cada vez son mas efectivas y alucinan menos, desde que hacen cadenas de razonamiento (la mayoría)
Actualmente, es una herramienta que resulta útil hasta cierto punto. Ha reemplazado por ejemplo gran parte de mis consultas en foros como StackOverflow (que es donde… » ver todo el comentario
La gente tiene que entender que una tecnología solo te hace más competitivo si solo la tienes tu. Si la tiene todo el mundo, se cancela y pasa a ser "baseline". La complejidad de las aplicaciones ahora puede ser mayor. La informática ahora llega a más partes. Esa es la manera correcta de verlo e históricamente verificable porque procesos similares han ocurrido en el pasado varias veces.
No me cabe duda de que los empresaurios de turno tratarán de vender juniors + IA como expertos en computación ... pero sabemos dónde va a terminar eso. Chapuzas aún de mayor calibre. "Powered by AI"
Yo creo que el mayor problema lo van a tener (precisamente) los juniors porque ahí sí puede ser complicado que seas competitivo frente a una IA a no ser que destaques mucho.
No sé que te hace pensar que la ingeniería informática sea más sencilla de que la ingeniería electrónica, por poner una adyacente (todos los informáticos sabemos un poquito de electrónica, todos los electrónicos saben un
… » ver todo el comentario
Programar es hacer caso al cliente.
Si se usa al revés, un junior sin mentor humano acompañado de una IA a la que le acepta todo casi si filtro se convierte en una máquina de producir deuda técnica , puede que ese junior levante un pmv en un tiempo récord y que esté meses implementando features y cerrando tickets a buen ritmo, pero en cuestión de tiempo el proyecto se vuelve inmantenible, con decisiones de diseño que no permiten introducir cambios básicos sin deshacer medio aplicación y posiblemente sin pruebas unitarias que permitan depurar los errores en un tiempo razonable.
Ese va a ser el problema: que donde antes necesitabas un equipo de desarrollo de veinte personas, ahora te valen con dos o tres buenos ingenieros. El problema, y la oportunidad.
La IA necesita inversiones exponenciales para avances pírricos y no creo que las inversiones vayan a soportarlo. OpenAI tiene contratado con Nvidia 100 GW de AI. Por ponerlo en perspectiva eso es tres veces el pico de demanda en España estos días.
Tienen 64 threads CPU, y 128Gb de VRAM en GPU.
Eso no lo da ningún Intel sin una tarjeta Nvidia de 128Gb (que se paga aparte).
APUs con GPU integradas, con 24Gb no da para LLM decente en local (ni vídeo/Whisper/Speech).
Solo de precio, el M1 ya escapa un x10. Y hablamos de bichos que consumen 100W máximo.
Con 2000€ tienes todo y consume como una bombilla de las viejas.