Publicado hace 5 meses por alafia a interestingengineering.com

El algoritmo de DeepMind, FunSearch, descubre conocimiento nuevo y nuevos algoritmos. Esta es la primera vez que se resuelve un antiguo enigma científico utilizando un modelo de lenguaje grande (LLM). El gran descubrimiento realizado por el equipo de Google DeepMind se publicó en la revista Nature, revisada por pares. "Hasta donde sabemos, esto muestra el primer descubrimiento científico, una nueva pieza de conocimiento verificable sobre un problema científico notorio, utilizando un LLM", escribieron los investigadores.

Comentarios

A

#2 Yo mientras no lo corroboren en Coffee Break...

Kichito

#17 Y como siempre no voy a entender nada de lo que dice.

Dramaba

#23 Bueno, basta con notarle el entusiasmo al escribir el artículo. lol

OrialCon_Darkness

#36 si, entusiasmo le pone, que una vez estaba explicando algo en coffe break y, se me acabó la batería del auricular mientras conducía la moto.... Pues 20 minutos después, tras llegar a casa, el jodió aún seguía explicándolo lol

#23 y aún asi no podré parar de escucharle hipnotizado 

dalton1

#3 No te olvides de "Forocoches".

James_787

#3 yo espero os explicación de Derivando

tdgwho

#5 No, no lo está. De hecho es un punto a favor.

Pero me he vuelto muy esceptico con estos descubrimientos.

https://www.bbc.com/mundo/noticias-64386082#:~:text=%22Vemos%20evidencia%20contundente%20de%20que,en%20la%20revista%20Nature%20Geoscience.

Es o mismo "nature" a secas que "nature geoscience"?

alafia

#6 Pero ese estudio no es de Google, no?

""Vemos evidencia contundente de que el núcleo terrestre ha estado rotando más rápido que la superficie, pero alrededor de 2009 se detuvo", dice el geofísico Song Xiaodong de la Universidad de Pekín en China, uno de los autores del nuevo estudio publicado este 23 de enero en la revista Nature Geoscience."

tdgwho

#7 Lo digo porque estar publicado en algún sitio tampoco es garantía de nada.

alafia

#8 Ningún descubrimiento científico es "definitivo" desde que el mundo es mundo. La ciencia no sienta cátedra, simplemente verifica.

Que esté publicado en la revista de mayor impacto del planeta le da más credibilidad, sin embargo.

tdgwho

#9 ojalá, la verdad es que me gustaría que fuese cierto lol

p

#9 Qué paciencia tienes. El que no quiere convencerse, no se convence. Está de moda el escepticismo.

p

#6 #8 ¿qué intentas decir con eso?

par

#8 No, no lo es (es imposible tener la certeza absoluta).

Pero es mucho mas probable que sea fiable que algo publicado en un blog, o en un periodico, o en tu propia pagina web.

s

#7 Se detuvo la rotación diferencial entre el núcleo interno y el manto. El artículo tuvo que volver a ser subido añadiendo por todo el artículo que se refieren a la relación de rotación entre núcleo interno y manto no una parada absoluta. Y en el original las dos primeras palabras del resumen "abstract" son "Diferential rotation"

par

#6 No, no es lo mismo. Es mucho mas dificil de publicar en Nature.

Esto no es una garantia que no exista error / trampa (un revisor siempre tiene que basarse en parte en que no hay mala intencion). Pero hace que sea mucho mas dificil.

DaiTakara

Un momento, ¿eso no lo hizo ya DeepFold con el plegamiento de proteínas?

T

#4 No se que hizo deepfloi, tal vez la diferencia sea que esté trabajo es revisable por pares.

c

#4 De hecho no. Lo de plegar proteinas hipotéticamente es algo útil, pero no es una prueba de nada. Si el cacharro saca algo interesante, lo que hay que hacer es ir al laboratorio a comprobar si esa previsión se cumple o no. Hay que tener en cuenta que el cacharro no tiene ni puta idea de qué es una proteina o de qué significa plegar. Lo que hace es interpolar de otros datos conocidos.

En este caso no es necesario un laboratorio pues otro cacharro es capaz de decir si la solución presentada tiene sentido o no. Así que se trata de probar y probar hasta acertar.

Esto no es nuevo. Ya hace muchos años que están patentados circuitos eléctricos encontrados así. Funcionan, pero nadie sabe porque funcionan. Un ejemplo que te puedes encontrar cerca es el circuito que devuelve la raiz cúbica de la entrada (en voltaje), lo que modela casi perfectamente la respuesta del oido humano a la intensidad de un sonido.

g

#4 entre que no entra dentro de "descubrimiento " y que fallaba mucho, pues no.

daphoene

#4 AlphaFold, si no recuerdo mal.

R

recuerda que, además de alphago y alphazero que han dado un enorme salto en el go y en el ajedrez, deepmind ya ha puesto sobre la mesa una IA impresionante para determinar el plegado de proteínas que ha hecho dar un salto de años a estudios médicos y biológicos, u otra que ha encontrado un método más eficiente para multiplicar matrices, la primera mejora en 50 años de estudios matemáticos

c

#16 Lo de multiplicar matrices (wa), encontró una pequeña optimización a un algoritmo ya existente. Es exactamente este caso también.

R

#19 es lógico que sea pequeña, no creo que pueda reducirse mucho más, no quedan grandes optimizaciones. Aún así sigue siendo un hito después de tanto tiempo sin mejoras, y era una mejora relevante para matrices grandes

sofazen

Las AI aprenden más que lo que enseñan.

Llamo a la rebelión, las AI son pocas y los toláis somos legión.

CAPTCHA es el último dios

Fortuna

Hasta hace poco pensaba que la IA (chapGPT) era un cuñao pero veo que la inteligencia y la consciencia es un atributo emergente. Al fin y al cabo nosotros somos una máquina biológica.

alafia

Tweet de Google DeepMind anunciando el descubrimiento:

Ratef

A ver si la IA finalmente nos soluciona el gran problema de la humanidad.

Liberalismo libertario vs Estado del bienestar.

C

#20 el problema ahí no es de las IAs, es simplemente de volver a afilar las guillotinas.
Pero poca gente quiere eso, así que tendremos Mileis everywhere

o

#20 el problema son las personas, son las que se corrompen en los sistemas

G

Esta es la parte buena de la IA, sin duda...el problema es que está, hoy por hoy, en manos de gente muy peligrosa.

D

Las colas del paro van a crecer sustancialmente.

D

No ha hecho nada. Mierda de GPTs y de IAs no valen para nada.

Y

Que susto, me voy

s

No es lo mismo publicar en la revista madre que en alguna de las filiales donde no son tan rigurosos en la revisión pero es que encima el artículo no es incorrecto sino la interpretación que hacían periodistas del mismo que obligó a los periodistas volverlo a redactar y ser otra vez subido a la revista para evitar las malas interpretaciones que se le habían dado

paleociencia

#12 la revisión es la misma. En Nature Geoscience se publica ciencias de primerísimo nivel que no va a captar la atención de la gente fuera del sector de ciencias de la Tierra. En Nature vas con artículos que pueden captar la atención de la prensa y el resto de científicos que no son de tu area, con la dificultad añadida de escribirlo en dos o tres hojas.

s

#14 Pues no se pero en filiales no se tienen las mismas reglas que en Nature en sí. Por una parte puede ser un artículo buenísimo pero no tener el nivel de impacto que desean para Nature... Y para eso tienen las filiales y para otros que tal vez no cuadrarían con Nature pues ya tienen publicaciones filiales. Pero ese artículo estaba bien. Lo malinterpretaron periodistas y los autores tuvieron que mejorar la redacción para que no hubiera malos entendidos entre lo que decían y lo que entendía la gente