Hace 17 días | Por rojo_separatist... a x.com
Publicado hace 17 días por rojo_separatista a x.com

Video comparando la evolución de dos modelos de IA de generación de videos en un año y medio.

Comentarios

Ghandilocuente

#1 Lo que es absurdo es pensar que las cosas pueden seguir progresando infinitamente de forma ininterumpida.
Esta ola de progreso en el campo de la IA ha sido espectacular, nadie lo niega, pero va a hacer pico (hay quien opina que ya lo ha hecho), y habra que esperar a la siguiente ola, quizas en unos años, quizas decadas, para mas avances.

rojo_separatista

#3, con que este ritmo de progresión dure 5 años, estamos hablando de IAs más inteligentes que cualquier ser humano en todos los sentidos. Ni tu ni yo sabemos dónde va a estar el pico, lo que sí sabemos es que no podemos quedarnos con la foto del momento ya que esto evoluciona muy rápidamente.

T

#4 ¿Inteligentes? Bueno, cualquier ordenador de sobremesa es más inteligente que un humano desde hace mucho tiempo, depende lo que compares y lo que llames "inteligencia".

rojo_separatista

#6, cierto, la cosa es que cada vez son más inteligentes en una variedad más amplia de tareas. Hace más de 20 años los ordenadores eran más inteligentes que los humanos jugando al ajedrez o recordando datos, hoy también lo son componiendo canciones o dibujando cuadros.

Fernando_x

#6 Yo llamo inteligencia la capacidad de resolver problemas de todo tipo, basándose en conocimientos previos y capacidad lógica. Mas o menos, ya nos ha adelantado a muchos.

Pero eso sí, solo tiene inteligencia. No tiene creatividad. Si le pides una historia completamente nueva que sea ingeniosa o una obra pictórica que sea realmente novedosa y original, fracasa. Incluso si le pides que invente un chiste nuevo.

Tampoco tiene conciencia, por si no quedaba claro. Es tan solo inteligencia.

Ghandilocuente

#14 Si hablamos de inteligencia, en medio de una comparacion con la humana, inteligencia es la capacidad de comprender conceptos abstractos, y si quieres luego.... la capacidad de resolver problemas con soluciones basadas en esa compresnion/entendimiento.

Las IAs a dia de hoy no entienden nada
Words are not enough: Why Artificial Intelligence cannot achieve understanding
https://www.abc.net.au/religion/why-artificial-intelligence-cannot-achieve-understanding/102288234

Here’s why AI like ChatGPT probably won’t reach humanlike understanding
https://www.snexplores.org/article/ai-limits-chatbot-artificial-intelligence

Why large language models aren’t headed toward humanlike understanding
https://www.sciencenews.org/article/ai-large-language-model-understanding

Algo que puede resolver problemas, sin comprenderlos, no es inteligente... sera muchas otras cosas, pro no inteligente.

Fernando_x

#31 No estoy seguro de esa definición. Si algo es capaz de resolver problemas exactamente como si los comprendiera... ¿Qué diferencia hace el entenderlos o no? Entonces ser inteligente se queda en una cuestión semántica, sin importancia real.

Ghandilocuente

#40 Eso mismo seria los que propuesieron a Google y Microsoft meter las iAS en produccion...
Luego pasó lo que pasó.

SI no eres capaz d verlo, quizas tu tampoco eres intelignte (pero si capaz de resolver problemas de un modo que la gente de tu alrededeor crea que si lo eres).

... una cuestion semantica, sin importancia real... madre mia

Fernando_x

#42 Venga, dime qué pasó.

Si no hay diferencia real observable, entonces, la cuestión no tiene importancia. Si tú me dices, con un ejemplo, que sí que hay diferencias, entonces es que no es lo mismo, no se comporta exactamente igual, y entonces la pregunta cambia.

Ghandilocuente

#4 Mientras no resuelvan el tema de las alucinaciones yo me mantendre esceptico
Luego esta el tema de los costos, que no son para nada despreciables.
Y para que en 5 años las IAs sean mas inteligentes que cualquier ser humano, primero tendrian que ser inteligentes como un humano., cosa que no son.

Mucho cuidado con el hype...

rojo_separatista

#8, es bueno ser escépticos pero me preocupa que como sociedad no estemos preparados para una tecnología tan importante. El tema de las alucinaciones se ha venido reduciendo en cada iteración, GPT-4 alucina menos que GPT-3 y este a su vez menos que los anteriores. A eso me refiero cuando digo que no debemos quedarnos en la foto del momento.

aironman

#10 que alucine más o menos es hasta cierto punto entendible , pues depende mucho de la calidad del dataset usado para el entretenimiento y de ciertos parámetros, entre ellos uno muy importante llamado temperatura. Si la pones a cero, tiende a no crear alucinaciones. Además, podemos minimizar aún más dicha tendencia si usas técnicas rag y proporcionas tus datasets de alta calidad. También depende mucho del tamaño de tokens. Mientras mayor sea, mayor será la capacidad de seleccionar los vectores coseno similares más relevantes. Eso más o menos lo hacen bien.

El principal problema es que apenas entienden superficialmente el texto con el que ha sido entrenado, que no está nada mal pues muchas personas hacen lo mismo y las llms saben de prácticamente todo, eso si, simulan que hablan bastante bien, traducen, crean resúmenes decentes, programan más o menos siempre que sea algo sencillo, tienen capacidad limitada para operaciones de lógica matemática,….

Todo eso no va a mejorar por tener mejores gpus, mejores datasets, más potencia de cálculo, más billones de parámetros. Para ir un paso más allá es necesario inventar nuevas matemáticas, que aún no tenemos y acertar, y eso no es fácil.

rojo_separatista

#12, pero como que no va a mejorar en razonamiento matemático si cada modelo nuevo es capaz de superar a los anteriores en razonamiento matemático. ¿De verdad te crees que los modelos actuales no razonan mejor que los de hace solo 4 años? Más que vuestra opinión, me gustaría saber en qué benchmark en específico te basas para decir que ya hemos llegado a un punto de estancamiento. Yo por mi parte te adjunto una tabla con las puntuaciones obtenidas en los datasets de evaluación más populares en las que se ve como el último modelo presentado GPT-4o supera a todos los anteriores.

aironman

#16 yo llevo algo más de un año, desde que salió gpt3. De ahí para atrás no tuve acceso, pero este último año me he dedicado en exclusiva, las uso todos los días, programando todos los días con frameworks , practicando con ellas, he hecho casi todos los howto de langchain. Me baso en mi experiencia del día a día.

rojo_separatista

#22, y no has notado ninguna mejora? Porque yo sí. De todas formas no debemos basarnos en nuestras impresiones personales, sino en los benchmarks y estos no paran de mejorar.

Si quieres saber hasta qué punto alucinaba GPT-2 aquí tienes un artículo de Gary Markus, uno de los grandes críticos del Deep Learning para que veas qué mal han envejecido sus críticas hacia este modelo.

https://thegradient.pub/gpt2-and-the-nature-of-intelligence/

Repito, viendo como evoluciona esta tecnología me sorprende que a cada avance haya gente se empeñe en decir que hemos llegado al pico.

aironman

#24 alguna mejoría, pero nada espectacular. Parece mejor porque meten más potencia de cálculo, esas nuevas GPu de nvidia son un gran avance

rojo_separatista

#26, esto ya es opinable, para mí de GPT-3.5 a GPT-4, la mejora sí ha sido espectacular, a ver GPT-5. El caso es que si la tecnología no diera más de sí no habría ninguna mejora. Creo que estamos normalizando muy rápido lo que permite una tecnología que hace 5 años era incapaz de escribir una frase de 10 palabras sin dar pena. Decir que ya se ha llegado al tope, no tiene fundamento en mi opinión.

aironman

#27 A ver, digo que se ha llegado al tope de lo que se puede hacer con la arquitectura actual de transformadores. Los LLMs actuales son muy buenos en imitar patrones y generar texto coherente, pero no tienen una comprensión profunda o "sentido común". No expresan sentido común. Responden basándose en correlaciones estadísticas más que en una verdadera comprensión del significado. La comprensión profunda implicaría una capacidad para razonar, entender contextos complejos, y aplicar conocimientos de manera flexible, algo que los modelos actuales no logran completamente. Los modelos actuales responden preguntas usando en el mejor de los casos búsqueda vectorial del coseno similar, es decir, aplican técnicas RAG en el que tú le das un contexto en forma de base de datos vectorial donde introduces tu dataset de alta calidad, y a partir de ahí, el LLM trata de escanear la respuesta a tu pregunta. Es como una forma de hacer bypass del entrenamiento inicial porque sabemos que dicho entrenamiento viene de todo internet, para lo bueno, y para lo malo. Internet es una gran biblioteca pero sin bibliotecario, por lo que han introducido mogollón de sesgos, información desactualizada, etc,...

Cuando digo que este modelo ha llegado a su fin es porque los investigadores reconocen que hay que ir por otro lado, por ejemplo, integrar el aprendizaje profundo con métodos de razonamiento simbólico. Los enfoques híbridos podrían combinar la capacidad de aprendizaje de patrones de los LLMs con el razonamiento basado en reglas y conocimientos explícitos. A día de hoy, aún no existen dichas matemáticas, se están investigando. Este modelo podría ofrecer una comprensión más profunda y una capacidad mejorada para manejar tareas que requieren razonamiento lógico y inferencias.

Otro enfoque es el basado en la biología, es decir, tomar inspiración de cómo funciona el cerebro humano y cómo procesamos y comprendemos información podría conducir a nuevas arquitecturas de IA más avanzadas.

Me baso también en que el consumo energético que necesita un modelo en modo cloud como GPT4 está en el orden de los 500 MW/hora, cuando los seres humanos funcionamos con apenas 20 Watios, eso indica que hay mucho trabajo por hacer y que este modelo es simplemente un gran avance, pero uno muy costoso.

Hay que, por poner una lista:

1) comprimir los modelos, hacer un pruning bestial, a ver si así conseguimos un consumo más manejable.

2) Hardware Especializado y Eficiente:

Chips Neuromórficos: Inspirados en la arquitectura del cerebro, estos chips están diseñados para ser extremadamente eficientes en términos de energía.
Optimizaciones en TPUs y GPUs: Las TPUs de Google y GPUs de Nvidia continúan mejorándose para ser más eficientes energéticamente, con cada nueva generación de hardware ofreciendo mejoras significativas.

Modelos Híbridos, más arriba los he introducido:

Integración Neuro-Simbólica: Combinar el aprendizaje profundo con el razonamiento simbólico puede mejorar la eficiencia y reducir la necesidad de cálculos intensivos.
Sistemas Multimodales: Integrar diferentes tipos de datos (texto, imágenes, audio) de manera eficiente puede mejorar el rendimiento general del sistema sin aumentar proporcionalmente el consumo energético. Esto es lo último que ha mostrado openAI, proveer de sentidos humanos a la IA.
Hay que ver el rendimiento de esto en producción, porque hemos visto demos muy controladas.


Centros de Datos Sostenibles: Utilizar energía renovable para alimentar los centros de datos puede mitigar el impacto ambiental del alto consumo energético.

Optimización del Enfriamiento y la Infraestructura: Mejorar la eficiencia de los centros de datos a través de tecnologías de enfriamiento avanzadas y la optimización de la infraestructura puede reducir el consumo total de energía.


Aprendizaje Continual: Desarrollar modelos que puedan aprender de manera incremental y actualizarse continuamente puede reducir la necesidad de entrenamientos completos repetidos.

Aprendizaje Federado: Permitir que los modelos aprendan de datos distribuidos sin necesidad de centralizarlos puede reducir el consumo de energía y mejorar la privacidad.

Algoritmos de Optimización: Innovaciones en algoritmos de optimización pueden hacer el entrenamiento más eficiente y rápido.

Reducción de Redundancias: Identificar y eliminar redundancias en los procesos de entrenamiento y inferencia puede conducir a ahorros significativos en términos de recursos computacionales y energéticos.

Ahora mismo estamos quemando muchísima energía en un momento especialmente peligroso para el clima, puede que si no resolvemos estos problemas antes, la IA se tenga que apagar.

Como ves, queda un montón.

Saludos.

rojo_separatista

#28, cómo evalúas el sentido común y la creatividad? Conoces algún benchmark que muestre signos de estancamiento en este sentido? Me interesa bastante.

Desde el punto de vista científico, más que utilizar palabras grandilocuentes como "sentido común" o "capacidad de razonamiento", debemos pensar en formas de medirlo objetivamente y todos los benchmarks que conozco, están mejorando.

aironman

#c-33" class="content-link" style="color: rgb(227, 86, 20)" data-toggle="popover" data-popover-type="comment" data-popover-url="/tooltip/comment/3947817/order/33">#33 pues hay mecanismos, tests diseñados y supongo que al mismo tiempo aparecerán nuevos.


### Medición del Sentido Común

1. **Pruebas de Sentido Común (Common Sense Reasoning Tests)**:
- **Winograd Schema Challenge**: Evalúa la capacidad de los modelos para resolver ambigüedades en oraciones basadas en el contexto. Un ejemplo es elegir la referencia correcta para un pronombre en una oración ambigua.
- **COPA (Choice of Plausible Alternatives)**: Presenta al modelo una oración y dos posibles alternativas de continuación, evaluando si el modelo puede elegir la opción más plausible.
- **SWAG (Situations With Adversarial Generations)**: Consiste en una colección de descripciones de situaciones y opciones de continuación, diseñadas para evaluar el razonamiento basado en sentido común.

2. **Tareas de Preguntas y Respuestas (QA Tasks)**:
- *CommonsenseQA*: Preguntas de opción múltiple basadas en conocimientos de sentido común. Evalúa si el modelo puede utilizar su conocimiento general para responder correctamente.
- *OpenBookQA*: Incluye preguntas que requieren el uso de conocimientos científicos y sentido común, con un "libro abierto" que contiene información relevante.

3. **Evaluación mediante Conjuntos de Datos de Sentido Común**:
- *ConceptNet*: Una base de conocimiento que contiene relaciones semánticas y de sentido común. Los modelos pueden evaluarse en cómo utilizan estas relaciones para responder preguntas o completar oraciones.
- *ATOMIC*: Un conjunto de datos que captura las inferencias de sentido común sobre eventos cotidianos. Los modelos se evalúan en su capacidad para predecir inferencias plausibles a partir de eventos dados.

### Medición del Razonamiento Lógico-Matemático

1. **Problemas de Matemáticas**:
- **MATH Dataset**: Contiene problemas matemáticos de diferentes niveles de dificultad, desde aritmética básica hasta álgebra y cálculo. Los modelos se evalúan en su capacidad para resolver estos problemas correctamente.
- *GSM8K*: Un conjunto de problemas matemáticos diseñados para evaluar el razonamiento matemático de los modelos de lenguaje, incluyendo problemas de lógica y razonamiento cuantitativo.

2. **Tareas de Lógica y Razonamiento Deductivo**:
- **Logical Reasoning Tasks**: Conjuntos de datos que presentan problemas de lógica formal, como silogismos, razonamiento de predicados y problemas de lógica proposicional.
- **ARCT (Argument Reasoning Comprehension Task)**: Evalúa la capacidad del modelo para identificar el tipo de razonamiento utilizado en un argumento y seleccionar la conclusión correcta.

3. **Tareas de Programación**:
- **APPS (Automated Programming Performance and Synthesis)**: Conjuntos de problemas de programación que evalúan la capacidad del modelo para escribir y entender código, aplicando habilidades de razonamiento lógico y matemático.
- **Codeforces Problems**: Utiliza problemas de competencias de programación competitiva para evaluar la capacidad de los modelos de lenguaje en la resolución de problemas de lógica y matemáticas a través de la codificación.

### Evaluación Mediante Benchmarks

1. **GLUE y SuperGLUE**:
- Incluyen una variedad de tareas de procesamiento de lenguaje natural que evalúan habilidades de comprensión, razonamiento y sentido común. Los modelos se evalúan en múltiples tareas y conjuntos de datos, proporcionando una métrica compuesta de su desempeño.

2. **BIG-Bench (Beyond the Imitation Game Benchmark)**:
- Un conjunto de tareas diversas y desafiantes diseñado para evaluar capacidades avanzadas de razonamiento, sentido común y lógica en los modelos de lenguaje grande.

### Métodos de Evaluación

1. **Exactitud de Respuestas**:
- Medir el porcentaje de respuestas correctas en tareas de opción múltiple, preguntas abiertas y problemas matemáticos.

2. **Análisis de Errores**:
- Examinar los errores cometidos por los modelos para identificar patrones de fallos comunes y áreas específicas de debilidad en el sentido común o razonamiento lógico.

3. **Interrogación Manual y Retroalimentación Humana**:
- Evaluadores humanos pueden revisar y calificar las respuestas generadas por los modelos, proporcionando una evaluación cualitativa de la capacidad del modelo para razonar y aplicar sentido común.

Esto me dice chat gpt, yo sabía que existían algunos, pero no todos. Entiendo que esto es más para aquellas personas que crean la tecnología. Yo uso la tecnología, espero que me entiendas. Te animo a que busques los datos, se que openAI comparte algunos resultados, pero no todos.

Measuring common sense and logical reasoning in large language models (LLMs) typically involves specific benchmarks and tests, such as the Winograd Schema Challenge (WSC), CommonsenseQA, and the Choice of Plausible Alternatives (COPA). These benchmarks are designed to assess a model's ability to understand and apply common sense knowledge and reasoning.

**Winograd Schema Challenge (WSC):**
GPT-4, the latest model from OpenAI, achieved an accuracy of 68.7% on the enhanced WSC+ dataset. While this is a significant improvement over previous models, it still falls short of the human benchmark of 95.1% [oai_citation:1,GPT-4 | OpenAI](https://openai.com/research/gpt-4/).

*CommonsenseQA:*
On the CommonsenseQA benchmark, GPT-4 has shown considerable improvement compared to its predecessors. For instance, GPT-4 achieves around 83% accuracy, which is much closer to human performance but still indicates room for improvement [oai_citation:2,WSC+: Enhancing The Winograd Schema Challenge Using Tree-of-Experts - ACL Anthology](https://aclanthology.org/2024.eacl-long.99/)

rojo_separatista

#34, creo que me he explicado mal. Claro que conozco que existen benchmarks para evaluar el rendimiento de los modelos de lenguaje. De hecho algunos de los que te he pasado antes ya evalúan esto y en algunos de los que tú comentas ahora, GPT4 consigue una precisión cercana al 100%, por eso no entiendo por qué los referencias como prueba de que el problema del razonamiento y el sentido común es insalvable.

En realidad me refería a si conoces algun test de evaluación en el que los LLM lleven varios años estancados sin signos de mejoría para decir que no podrán seguir mejorando en capacidades como el razonamiento y el sentido común será imposble de resolver con este tipo de arquitecturas.

aironman

#c-35" class="content-link" style="color: rgb(227, 86, 20)" data-toggle="popover" data-popover-type="comment" data-popover-url="/tooltip/comment/3947817/order/35">#35 bueno, honestamente no creo haber dicho que el problema sea insalvable, si no que con la arquitectura de transformadores actuales no parece que llegamos a este ritmo a igualar a un ser humano.

Según preguntas a gpt4-o, esto responde:

As of 2024, no large language model (LLM), including the most advanced models like GPT-4, has consistently demonstrated superior logical-mathematical reasoning and common sense compared to a human. Here are some key points and comparisons:

### Logical-Mathematical Reasoning

1. **HumanEval Benchmark**:
- GPT-4 shows significant improvement in solving programming tasks compared to its predecessors, achieving performance close to human levels on certain coding benchmarks. However, it still makes mistakes that an experienced programmer might not, indicating it hasn't surpassed human capability overall [oai_citation:1,GPT-4 | OpenAI](https://openai.com/research/gpt-4/) .

2. **MATH Dataset**:
- GPT-4 has achieved better results on mathematical problems, yet it still struggles with complex or novel problems that require deeper understanding or innovative solutions [oai_citation:2,WSC+: Enhancing The Winograd Schema Challenge Using Tree-of-Experts - ACL Anthology](https://aclanthology.org/2024.eacl-long.99/)

rojo_separatista

#37, en ningún momento he dicho que los modelos actuales tengan un desempeño superior al de los humanos. Lo que digo, siento volver a insistir en esto, es que no podemos quedarnos en la foto del momento, que esta tecnología está mejorando mucho. GPT-5 va a salir a finales de año y viendo la tendencia no descarto que supere al desempeño humano. En lo que tenemos que ponernos deacuerdo es que esto hay que evaluarlo a base de benchmark, no en base a opiniones.

aironman

#38 sin duda, los benchmarks son importantes. Yo desde el principio te dije que mi opinión se basa en la experiencia de usarlos durante el último año, todos los días, y lo que me queda, porque pienso seguir.

Ahora, también pienso que los benchmarks, si no los puedo reproducir en mi máquina, personalmente los tomo con ciertas reservas. No digo que sean incorrectos, pero soy de los que quieren comprobar terceras afirmaciones.

aironman

#24 Por ejemplo, cuando le pido que me diga algo sobre una excepción de producción super rara, veo que no es tan rara, a alguien más le ha pasado y menos mal que dicha información ha acabado en algún dataset de entrenamiento. Bien por la IA. Antes de eso, te tenías que pegar durante diás o semanas en stackoverflow para ver si algún humano engreído se digna en querer ayudarte, cuando muchísimas veces te encontrabas que te echaban para atrás la pregunta porque por alguna razón no estaba bien escrita. Eso hacía que muchísima gente, sobretodo novata, se echara para atrás y no quisieran usar el foro. Es un gran punto a favor de la IA.

Pero por otro lado, yo me he encontrado muchas veces que caía en pensamiento circular cuando te ofrece una manera de resolver un problema. Se nota mucho cuando la tecnología sobre la que preguntas es muy nueva. Ahí es cuando digo que su capacidad de pensamiento lógico falla. Un ser humano no te diría cuatro o cinco veces la misma solución cuando repetidas veces le muestras que no, que por ahí no. Es como si se le olvidara las cosas o no supiera razonar, o las dos cosas a la vez.

Otra cosa que no me gusta demasiado, es que también ha sido entrenada con información sobre como hacer malware. Es verdad que ahora hay filtros si se lo preguntas de manera muy directa, pero te aseguro que esos filtros no son suficientes si haces prompt engineering. Te estoy hablando de los LLMs comerciales, los más usados, porque luego hay otros que directamente no creen en eso de aplicar filtros y te cuentan como crear un malware sin ponerte pegas.

Eso es malo, muy malo.

rojo_separatista

#29, #30, y esto nos lleva al mensaje que he publicado en #1, no te quedarse con la foto del momento no sirve para prácticamente nada teniendo en cuenta el ritmo al que evoluciona esta tecnología.

Fernando_x

#12 Eso que pides, ir una paso más alla, no es lo que hacen estas IAs. Eso se llama creatividad, por ser precisos. Son muy inteligentes, pero no son creativas.

aironman

#17 bueno, yo creo que depende de que pensemos que es creatividad no?para mí, ser muy inteligente no es saber mucho, eso es tener mucha memoria acumulada.

Fernando_x

#25 La inteligencia y la memoria son dos cosas diferentes. Por ejemplo, yo creo ser bastante inteligente, pero mi memoria es regulera.

Creatividad sería la capacidad de inventar nuevos conceptos o ideas que sean realmente útiles, atrayentes, o capaces de generar nuevas líneas de pensamiento en otras personas, ideas que, de no ser por esas ideas creativas, nunca se habrían alcanzado. Tampoco soy demasiado creativo.

aironman

#41 Para mí, ser inteligente y creativo es ser capaz de conectar diferentes áreas del conocimiento para poder expresar sentimientos, emociones y conocimiento científico.

Los artistas sobre todo tratan de expresar sentimientos y emociones en sus obras. Los científicos tratan de conectar distintos campos del saber, por eso en las universidades de élite abogan por tener en tus estudios, asignaturas muy dispares entre sí, incluso si estás haciendo asignaturas de física y mecánica cuántica, también te piden que hagas asignaturas relacionadas con literatura u otras areas del saber totalmente distintas.

Fernando_x

#44 Sí, eso sería la creatividad, muy buena definición. Las IAs actuales por ahora carecen de eso.

Pero la inteligencia es algo más básico, ser capaz de resolver problemas novedosos, pero relacionados con otros que están en tu aprendizaje. chatGPT es capaz de resolver una integral que nunca haya visto. Por muy compleja que sea. Para ello en realidad basta conocer las reglas que se usan para resolver integrales. O con un problema de física con conceptos que nunca se le hayan nombrado en un problema de este tipo. Es capaz de deducir lo que se le pide y resolverlo.

Fernando_x

#8 Las alucinaciones han desaparecido prácticamente del todo en chatGPT4. Ya no se inventa cosas. Si no te puede dar el dato, te dice que no tiene acceso o que no lo sabe. Es muy raro que se lo invente o alucine.

rojo_separatista

#15, tampoco es verdad, si le aprietas sigue alucinando bastante, lo que si es verdad es que se han reducido muchísimo. Me gustaría saber en qué se basa esta gente para decir que ya hemos llegado al pico. Siempre me acuerdo de un artículo de 2017 que decía que el Deep Learning ya no daba más de sí. lol

S

#8 No lo hemos resuelto nosotros en nuestra mente...

DaiTakara

#3 O no.
Pero para qué discutir. Esto es como aquellos que en el 99 decían "¡¡yo nunca tendré un móvil!!"

Ghandilocuente

#5 Esro es como aquellos que a principio de los 90 decian "en el año 2000 iremos todos en coches voladores"

Disiento

#7 y ya nos hemos pasado 24 pueblos.

leporcine

#3 Pues yo creo que lejos de haber alcanzado pico lo que está es en pañales.

Robus

#1 ¿Superior a nuestra capacidad de adaptarnos a ella?

No se de donde sacas eso... es como decir que los teléfonos móviles evolucionaron a una velocidad superior a la que te puedes adaptar...

No niego que hubo gente que tuvo problemas con el cambio del Nokia 3060 al smartphone, pero la mayoría de la gente se adaptó sin problemas.

Al igual que harán cuando les digan que no tienen que hacerse costosas pruebas diagnósticas ya que una IA, con una gota de sangre, ya es capaz de identificar la tira de enfermedades.

La gente se va a adaptar a toda velocidad, igual que se adaptó a las resonancias magnéticas, a los aviones y a las neveras.

rojo_separatista

#20, ojalá me equivoque, pero creo que el impacto que tendrá en el mercado laboral no es comparable con ninguna otra tecnología desde la aparición de la máquina de vapor.

aironman

#21 Lo que yo veo es que no está teniendo un gran impacto, es decir, no se está despidiendo de manera masiva a ingenieros por culpa de la IA. Están despidiendo por otros momentos pero no se debe a la eficacia en la IA, de hecho, yo estoy notando que hay una gran reticencia a implantar la IA en producción, y es normal porque para empezar es muy dificil y es muy costosa. Por ahora, he visto al BBVA, a seguros Ocaso, al Santander, a Ericsson, por decirte unos cuantos que conozco de cerca que están explorando la tecnología, vamos, que han conseguido licencias enterprise de openAI y están viendo como integrarlos en sus modelos de negocio.

Me dicen que cuando se enteran que tendrían que integrar sus datos, que ya tienen en otras nubes de otros proveedores con los sistemas internos de openAI o con Azure, no les gusta demasiado, porque ya de por sí no están muy cómodos con haber perdido el control de los que les hace funcionar. Los datos de los clientes. Los que usan Azure de manera masiva ponen menos problemas, pero otro proveedor más,...

Una primera aproximación es usar los datos que tienen en el JIRA para tratar de crear un chatbot que ayude en los onboarding, pero como esos datos tienen escasa calidad, se encuentran que hay mucha información inconexa. Culpa del modelo?, yo diría que no, es culpa del estado de los datos, que es un berengenal. Cada tribu ha introducido su manera de hacer no se que historia, algunos usan una versión de un software, otros usan otras versiones, algunos están mejor escritos que otros, por lo que, esos chats generan unos resúmenes muy malos, y poco fiables.

Otros, han usado gpt con los datos de los pacientes y del vademecum para tratar de crear una herramienta que ayude a los médicos. Como la han hecho de espaldas a los médicos, en cuanto la usan empiezan a sacarle problemas y dejan de usarla. Es lo que ocurre cuando haces algo a espaldas del usuario.

Otros han hecho soluciones ad hoc con datos de pacientes con algún tipo de cáncer, en plan reconocimiento de imágenes para dar una opinión rápida al médico especialista si ese bultito es maligno o benigno. Esto lo hacen hospitales privados que han encargado este tipo de software. Por lo que me dicen funciona bastante bien, pero como son empresas pequeñitas, están muy limitadas por el hardware del que disponen. También tienen un software que directamente no escala, por lo que tienen ese problema.

Robus

#21 Yo creo que tendrá el mismo impacto que la llegada de los ordenadores a las oficinas.

Se harán cosas que nunca se pensó que se podrían hacer y la gente aprendió a trabajar con sistemas que ni se les había pasado por la cabeza que un día iban a utilizar.

Mi padre me contaba que tenían un ordenador PC en una habitación y les dejaban ir 2 horas a la semana por departamento... y él aprendió a hacer virguerías con el lotus 123 que le quitaba muchisimo trabajo de encima!

Un_señor_de_Cuenca

¿Quieres sentirla en el pecho?

Doisneau

Pense que seria el video de coña que el mismo will smith hizo hace unos meses

F

Parece espectacular pero estamos muy cerca del pico, ¿Seguirá avanzando? si, pero muy poco y cada vez le va a costar más.

Fernando_x

#13 Que raro este pico, que cada vez sube más deprisa.