Hace 7 meses | Por Dragstat a bbc.com
Publicado hace 7 meses por Dragstat a bbc.com

Imagina que se libra una batalla en la sala de juntas de una empresa multimillonaria que desarrolla una tecnología futurista potencialmente capaz de salvar o destruir el mundo. Su director ejecutivo, que cuenta con el apoyo de los líderes mundiales, es derrocado por directivos de alto nivel que se vuelven contra él, provocando una reacción del resto de la empresa que exige despedirlos a ellos. No es el guion de una serie de Netflix, sino los últimos días en OpenAI.

Comentarios

ewok

#1 La segunda es una mierda de frase por las negritas, pero no creo que sea una hipérbole. La primera tampoco.

La AIG puede ser una cosa tan potente (potencialmente, valga la rebuznancia) que genere un conocimiento científico capaz de resolver problemas como el cambio climático, nuevos fármacos y enfoques terapéuticos para enfermedades graves, eficiencia energética o regulación inteligente del tráfico, por nombrar unos pocos. Por otro lado puede crear un vacío para las habilidades humanas comunes que deje en la estacada a cientos de millores de personas, que multiplique las fake news, o que pueda crackear las contraseñas de todo tipo (bancarias, de instituciones, etc.) acabando con el mundo tal como lo conocemos.

D

#2 "que genere un conocimiento científico"
Esto... no.

Las IAs carecen de creatividad, y pensamiento independiente propio, se rigen por modelos de datos existentes.
El ser humano genera conocimiento a traves de la observacion, la experimentacion, y el entendimiento de conceptos abstractos.
La IA no esta ni medio cerca de ser capaz de realizar algo asi.

Que representa un cambio disruptivo en muchos aspectos de nuestras vidas o de la sociedad en general, no lo niega nadie a estas alturas (aunque todavia esta en pañales), pero de ahi a decir que "una tecnología futurista potencialmente capaz de salvar o destruir el mundo"... hay un buen trecho.

Es una hiperbole de libro, o eso o una muestra de ignorancia sobre lo que se habla.

ewok

#3 Ya modelos de texto a imagen como DALL-E pueden generar una imagen que no existía, partiendo de "datos existentes" y no de "creatividad", pero no deja de ser una imagen generada que no existía. Las AGI, que es lo que se está debatiendo que pueda estar "engendrándose" o "naciendo" (sirvan las metáforas). IAG (o AGI) no es lo mismo que IA a secas.
https://www.forbes.com/sites/nishatalagala/2023/11/21/what-is-agi-and-why-you-should-care/

D

#4 No tenemos nada ni lo mas remotamente parecido a una AGI.
Decir que se esta cociendo sin ninguna evidencia de ello, es solamente hablar por hablar.
Pero que que no pare el hype!

ewok

#6 Yo desde luego no lo tengo
Que nadie lo tenga, aunque sea a un nivel embrionario (o cigótico), no lo tengo tan claro.

D

#8 Tampoco tienes evidencias de lo contrario.
Vamos que basas todo tu planteamiento en meras especulaciones.

Con esa mentalidad tambien podriamos afirmar que alguien ya puede tener una solucion funcional, para la explotacion comercial de la energia nuclear de fusion.

ewok

#11 No, me baso en las declaraciones de gente que se dedica a esto, entre ellos el actual CEO de OpenAI, que por cierto tiene en ella su razón de ser. OpenAI’s mission is to ensure that artificial general intelligence (AGI)—by which we mean highly autonomous systems that outperform humans at most economically valuable work—benefits all of humanity.

Puedes echar un ojo a esto https://ourworldindata.org/ai-timelines. Varios cientos creían en febrero que hay muchas posibilidades de que la AGI se alcance en las próximas décadas. Estos afirmaban hace un año que en menos de 20 años, y se puede acelerar: https://www.metaculus.com/ai/

Además, una cosa es un principio embrionario de AGI, otra una AGI, y otra una superinteligencia.

ewok

#26 #11 * Cuando digo el "actual CEO de OpenAI" me refiero a Emmett Shear, al menos hasta hoy. https://www.theverge.com/2023/11/22/23967223/sam-altman-returns-ceo-open-ai

D

#26 hacer proyecciones a 20 años es mas "wishful" thinking que otra cosa.
Un claro ejemplo de ello es la energia nuclear de fusion.

Los "unknown unknowns" y las brechas tecnologicas, son tantas y tan grandes que hacer proyecciones es un absurdo. En mi humilde opinion.
Perdon por usar tanto anglicismo

ewok

#28 Hacer proyecciones a 9 meses varía mucho si se cree que una puede estar está embarazada o si una sabe con certeza que es imposible. Si desde dentro de OpenAI detectan que puede haberse producido algo así, las afirmaciones del primer comentario dejan de ser hiperbólicas. Mira las últimas entrevistas con Emmett y me cuentas.

D

#29 Bueno parece que tenemos opiniones muy distantas. lol
Ninguno va a convencer al otro, pero bueno, decir que espero que el que lleve razon seas tu lol
Seria fantastico ver una IAG antes de morir uno

ewok

#30 O no...

El_perro_verde

#3 La IA no va a ser mejor que los humanos haciendo lo que hacen los humanos, pero si va a ser mejor que los humanos haciendo otras cosas. Por ejemplo, el ser humano es bueno buscando patrones, pero a una IA lo suficientemente potente puedes darle ADN de 100.000 personas con una enfermedad X y que encuentre qué genes son los que están fallando, por ponerte un ejemplo de cosas que ya se están intentando

D

#5 Y la convierte eso en "una tecnología futurista potencialmente capaz de salvar o destruir el mundo" ? (porque de eso es de lo que estamos hablando)

El_perro_verde

#9 Si, si lo hace, la IA puede descubrir desde curas de enfermedades a materiales nuevos, puede ayudar a solucionar el cambio climático, la fusión nuclear o abonos nuevos, pero también puede destruir todo el sistema bancario o dejar a cientos de millones de personas en la calle. A lo mejor no lo hace, pero hay posibilidades reales de que sirva para cualquiera de estas cosas, así que si, puede salvar el mundo o destruirlo.

D

#12 "pero también puede destruir todo el sistema bancario"
Muchas peliculas has visto tu lol lol lol
Sin acritud

Recomiendo el visionado de este video de Veritasium para dejar de caer en la trampa de los titulares facilones que nos rodean en estos tiempos, sobre ciencia y su progreso.

Los Problemas de la Divulgación Científica

El_perro_verde

#13 No, no he visto muchas películas ni tengo ningún problema con la divulgación científica, simplemente creo que no eres ni medio consciente del potencial de las inteligencias artificiales de aquí a pocos años.

D

#14 "no eres ni medio consciente del potencial de las inteligencias artificiales de aquí a pocos años."
Soy consciente que son un avance remarcable, que con el potencial de redefinir por completo muchos aspectos de nuestra vida.
Pero de ahi a decir que tiene la capacidad de destruir o salvar el mundo, hay un trecho.
La IA hoy por hoy, solo es una herramienta, rodeada de un hype enorme.

El_perro_verde

#16 Tu lo has dicho, "hoy por hoy", pero nosotros estamos hablando del futuro próximo.

D

#17 o del futuro muy lejano, o quizas nunca se logre una inteligencia artificial de proposito general.
Hoy por hoy, nadie sabe como llegar a ella.

Ese es el punto, es todo pura especulacion.

El_perro_verde

#18 Si es que yo no estoy hablando de una inteligencia artificial de propósito general

PauMarí

#12 lo hará si alguien se lo pide (en un principio tinfoil) por tanto el problema, como en todo, no es la IA sinó como se usará.
Ya sé que es una obviedad decir eso, como decir que no matan las armas sino quienes las usan..., pero como el ser humano és como és, seguro que acabará dándole mal uso...

tul

#5 claaaro como jugando al ajedrez por ejemplo lol

zentropia

#5 Ya es mejor que los humanos haciendo cosas que solo podian hacer los humanos. Como jugar a ajedrez

u

#3 Hay todo un debate con respecto a eso, al fin y al cabo nosotros mismos, nuestras neuronas, funcionan de forma parecida, nos regimos a partir de lo existente, de la experiencia, analizamos datos y desde ahí generamos conclusiones, y analizamos nuevos datos y generamos nuevas conclusiones, y nuestra creatividad al final se basa en lo observado (que no dejan de ser datos existentes), nadie genera totalmente de la nada ideas que no sean muy básicas.
No obstante está claro que a día de hoy la IA no puede generar conocimiento científico, y no me atrevería a decir que sean capaces de hacerlo por sí mismas en un futuro, pero desde luego pueden ayudar a los humanos a generarlo. Estas IAs por sí mismas no hacen nada, al fin y al cabo dependen del prompt que un humano les introduzca, pero sospecho que en un futuro, viendo la evolución vertiginosa que tienen, podrán ayudar a generarlo, no por sí mismas, pero sí dando respuestas o ayudando a dar forma a ideas y preguntas que nazcan de un humano.

PauMarí

#3 es que mucha gente no se da cuenta de lo que dices y corremos el riesgo de que un día se deje de "generar conocimiento" (porqué las empresas o universidades dejen de invertir en I+D pensando que ya está la IA) y acabar en el paradigma de no poder "entrenar" las IAs con nuevos conceptos y que solo puedan "retroalimentarse" de ellas mismas tinfoil
Vendria a ser como su "punto de singularidad"?

t

#3 la mente humana emerge de algo en teoría sencillo, la simple conexión de neuronas. Qué te hace pensar que no puede emerger algo de una inteligencia artificial. Está claro que chatgpt no es una inteligencia artificial general, pero se atisba que hay algo ahí inteligente a poco que interactúes con ello. Es como el primer paso de la evolución hacia la inteligencia general. Tiene sus limitaciones, se le va la pinza cuando llevas un rato en una sesión y tienes que empezar otra y claro, así no puede haber un "yo". Pero está claro que hay un principio de razonamiento inteligente, a veces casi humano.
Lo que yo creo es que probablemente chatgpt seguramente sorprendió a los ingenieros al principio y que cuando emerja la inteligencia general, no lo vamos a ver venir.

r

Venga, los llorones porque se ha ido un CEO que no seguía los principios de la empresa.

Señores, que una parte de la filosofía de OpenAI era hacer modelos seguros y abiertos a todo el mundo, no era todo contentar a los accionistas.

Madre mía, es increíble cómo la mayoría de izquierdas que hay aquí en Menéame defiende a Sam Altman.

¡Viva el Software Libre!

ccguy

#7 tú metiendo tu spam político sin venir a cuento, como siempre.

Y de paso hablando sin tener ni puta idea del tema, también como siempre.

j

Están los animales, las máquinas y los humanos.; lo que les diferencia es la inteligencia.
Y ni siquiera el ser humano sabe cómo funciona su cerebro ni qué es realmente la inteligencia,
menos aún puede sintetizarla ni inyectarla a animales o máquinas.