Hasta ahora, las ganancias de productividad de la IA generativa son mínimas y se concentran sobre todo en programadores y redactores. GenAI hace algunas cosas llamativas y útiles, pero todavía no es el motor de una nueva economía. El CEO de OpenAI, Sam Altman, ha sido sincero respecto a cuánto gasta su empresa y ha reconocido que incluso las cuentas profesionales de pago generan pérdidas por los altos costes de computación asociados a cada consulta. Otro problema que se cierne sobre la IA generativa es el copyright. La mayoría de las empresas
|
etiquetas: ia , rentabilidad , costes , openai , altman , anthropic , copyright
El escenario actual es.
A mi Chat GTP 5 y suscrito me parece más lento y peor.
1.- Nvidia invierte 1 billón (europeo) de dólares en OpenAI
2.- OpenAI le paga a Oracel 3 billones (europeos) para utilizar su nube.
3.- Oracle se gasta "centenares de miles de millones de dólares" en comprarle chips a Nvidia.
¿Nadie ha visto por ahí lo que podría salir mal? ¿No hay reguladores en Estados Unidos que paren el carro de esto antes de que ocurra algo irreparable?
Básicamente una IA decente es un recurso estratégico de primer nivel a medio/largo plazo.
He visto más de un caso que te discute que algo no es posible porque lo ha consultado con ChatGPT cuando es evidente qué no es cierto.
es.euronews.com/next/2023/04/01/un-hombre-se-suicida-despues-de-que-un
es.wired.com/articulos/elon-musk-ya-tiene-permiso-para-alimentar-grok-
Y listo
Mira WhatsApp.... De que coño te crees que vive? En serio piensas que "da pérdidas"???
Lo que pasa es que estamos en la fase de que cada vez hay más competencia. Yo estoy montando ahora dos clústers con deepseek.
Ese es el problema, que por ahora no hay un embudo y la gente, aunque va por modas, sigue dispersa. Cuando la publicidad y la manipulación de la información hagan su trabajo todos iremos a uno como subnormales. Y ahí, con el monopolio o un oligopolio controlado ya se habrá acabado la burbuja y todo estará bien!
En resumen, la gente va a usar los modelos online, no veo que nadie vaya a estar gastándose 150k euros cada 2 o 3 años para correr en local los últimos modelos.
De una sola maquina ya tenemos varias instalaciones, llama y deepseek la versión limitada. Hasta los desarrolladores tienen un proyecto docker para desplegarlo en sus máquinas para desarrollo local.
Aunque para mi mucho mas importante es que china ha sido el único que ha publicado y hecho open source su modelo, de hecho DeepSeek hizo su modelo R1 open source desde el principio github.com/deepseek-ai/DeepSeek-R1
Y ojo, que muchos modelos son "pesos abiertos" pero código cerrado. Llama es abierto en todos los sentidos:
- github.com/meta-llama
- huggingface.co/collections/meta-llama/llama-4-67f0c30d9fe03840bc9d0164
Pero si hablas de open source en el tema de software para entrenar los modelos y… » ver todo el comentario
cincodias.elpais.com/companias/2024-04-18/los-ingresos-y-beneficios-de
Y que tengas mejor suerte ejecutándolo (el real, no los destilados)
Por supuesto que hay varios paralelismos y estoy de acuerdo en que pronto habrán recortes y cribas, pero la industria no va a atraer a tantos jugadores simplemente porque el… » ver todo el comentario
La IA ha venido para quedarse. Al igual que antes había 10 portales ofreciendo noticias, correo y buscadores de internet, ahora básicamente se centra casi todo en Google y usos muy reducidos de bing/Yahoo/duck-duck-go,... Con la IA pasará algo similar, habrá una empresa/modelo que predomine sobre el resto y se desinflara la burbuja y la carrera por tener los mejores modelos.
Y el caso es que no eres inmortal.
¿202 usuarios que han votado positivo y 1 que votó sensacionalista, más quienes comentan - que te incluyen a ti que no votaste - y quienes votan comentarios?
Esa es UNA configuración resultante de un algoritmo que organiza las conductas de los usuarios respecto a una noticia de una web externa.
Al final igual el tema pasará por qué cada empresa escale un modelo propio para evitar fuga de datos y pague los recursos y un peaje por licencia o uso elevado .
El privilegio será el tener empleo en una empresa así para tener acceso y por tanto un ascensor social rápido .
Su nivel de trabajo es el de un becario malo y mentiroso, pero con la desventaja de que no aprenderá y mejorará. Y me preocupa que la gente confíe en ellas ciegamente sin hacer un mínimo repaso de lo que entrega.
Ahora mismo si las empresas quieren recuperar lo invertido ya pueden darle una vuelta de tuerca… » ver todo el comentario
Para mi, hasta ahora en mi campo, y para preguntas técnicas complejas, la AI es una búsqueda rápida muy buena de conceptos básicos y funciones standard. En lugar de enlaces, de da resúmenes y ejemplos o borradores. Pero no es capaz de dar un producto final.
Por ahora, tiene 2 problemas enormes:
1. Carece del contexto (y no, gran parte del contexto no está en el código y no puede especificarse como prompt).
2. Miente y se inventa, y no es consciente de ello. No es aún capaz de distinguir algo verdadero basado en datos, de una opinión o de una suposición o hipótesis.
Ahora porque se esta invirtiendo mucho dinero, es todo muy reciente y hay mucha competencia, pero los modelos van a evolucionar y a ser mucho mas eficientes, lo unico que ahora se prefiere invertir en tener el modelo mas innovador a costa de un mayor gasto en cómputo.
Se la están jugando con un montón de variables que con cada trimestre que pasa se ponen más en su contra y ya veremos si son capaces de monetizarlo porque los chinos le pueden tirar dos millones de metros cúbicos de gasolina a todo el tinglado en el momento que quieran como ya demostraron con DeepSeek.
Más eficientes, es posible. Pero un mejor desempeño no lo es. Harán lo mismo que hacen ahora gastando menos energía y eso es todo.
Ahora mismo están metidos todos ellos en una competición para disminuir las "alucinaciones" (que son funcionamiento normal). Para ello usan pasos de verificación que son costosísimos energéticamente.
Entiendo que estás invocando una ley empírica de la informática, pero cuidado que en lo que es el modelo en sí, eso no es tan sencillo. Los algoritmos no mejoran en eficiencia así como así, es más fácil que mejore la eficiencia del hardware que el propio modelo.
Y además hay un vector importante a favor de menos eficiencia energética por aumento de la complejidad de cómputo.
El gran problema que tiene la IA ahora mismo es que lo ha… » ver todo el comentario
Esto me lleva al punto del hardware, que es su gran problema: estas redes no tienen sobreajuste, cuanto más grandes son, mejor funcionan. Por eso es que pueden morir de éxito. Ya hay modelos relativamente… » ver todo el comentario
Esa es la parte más importante. La IA ahora mismo es deficitaria incluso en las cuentas de pago, ese un problema importante porque la rentabilidad de estas empresas necesita:
* Que las cuentas de pago sean rentables por si mismas (menos coste energético y/o subida de precios)
* Que las cuentas gratuitas sean rentables o absorvibles (más presión sobre el punto uno o monetización via "sugerencias" de compras)
Cuidado... se ven nubarrones.
Cuando la demanda se estabilice y las empresas organicen su dinámica en torno a la IA de turno, recién entonces se podrá comenzar a monetizar de manera más realista.
Hoy las IA están luchando por conseguir una cuota de mercado que sustente su financiamiento a corto/mediano plazo y les permita seguir investigando para descubrir cuál es el verdadero techo de la tecnología, con el objetivo final de sobrevivir cuando el mercado se depure y que esos inversores transformen la inversión en grandes ganancias.
Pero alguien duda de que las IA llegaron para quedarse?
En esa época también hubo muchísimo entuiasmo por la IA, y grandes inversiones. Fue la época de LISP y de las máquinas LISP. Muchos de los discursos que ahora se oyen ya se oían en esa época.
Al final saltó todo por los aires porque las máquinas LISP se estancaron, no cumplieron todo lo que prometían… » ver todo el comentario
Que necesita una depuración sin dudas, pero no hay nada que indique que esto sea una moda pasajera. Y todo esto no quita que haya una burbuja de dimensiones desconocidas.
¿Te has creido ese hype? Ahora mismo no puede sustituir a nadie ni parcialmente, y las perspectivas de que mejore son inexistentes.
El resto de tipos que redactan cosas, deben gastar más tiempo revisando lo que hace la máquina que no tiempo que habrían dedicado a hacer lo mismo a mano. Hay estadístcas con programadores donde el tiempo empleado es un 18% mayor, pero sin embargo la percepción subjetiva es que van más deprisa.
Y los becarios al menos mejoran con el tiempo.
No tiene sentido ese planteo.
Los manages creen que si, que no hace falta junior, se puede despedir a seniors y todo lo hace el Copilot.
Hay una disonancia entre programadores y managers, que no me explico.
Una teoría que tengo es que se está forzando a hacer más a los programadores, que dicen que si para evitar ser despedidos ("La IA no te va quitar el trabajo, es tu compañero que sabe IA quien te lo va a quitar"). El… » ver todo el comentario
Que esta forma de IA de chatgpt no es sostenible se ve a la legua.
Han cacheado todo internet para entrenarla, así como muchas obras con copyright.
Tienen a grandes equipos humanos revisando entradas y salidas.
Y para qué? Cuáles son los principales usos que se dan?
Lo que están haciendo es rematar internet y compitiendo con servicios de forma desleal y peligrosa. ¿Cuanta gente usa chatgpt como un psicólogo?