D

#85 eso lo doy por entendido, pero la tecnología si evoluciona (o llámalo como quieras)

elGude

Alvise es un tonto útil que sabe hablar a los tontos, en su lenguaje "libertad", "voy a donar mi sueldo" o "voy a agitar el avispero", cuando en realidad, no sabemos de donde vienen sus ingresos, nada más llegar al Europarlamento, ya está preparándose para ir al de España y legislar a favor del primero que le da 100.000 €.

Alvise representa lo más bajo de España, los interesados y las amebas libertarias.

oceanon3d

#13 Cuidado con esos ... la España "jesusgiliana" del listillo, del echao pa' lante, del que va a poner orden, del acomplejado, del "lo que yo te diga", del ignorante, del iluminado que no sabe hacer la O con un canuto. Esa España de bar con cacahuetes por el suelo y maquinita tragaperras con Telecinco de fondo sigue teniendo bastante tirón. Al parecer.

N

Míralo, si parece que fuera ayer que se soltaba sus primeros bulos por twitter y ahora ya trincando subvenciones como los mayores, que rapido crecen coño :_(

VotaAotros

Qué error no haberse creado una fundación como hacen los demás.

Kleshk

#3 La primera que le pillan lol

johel

#8 La primera de la "los suyos" tienen tenian audios grabados.
A este le va a pasar como a Gil y Gil, se lo van a cargar por meter el morro en plato ajeno. Y que no hable de corrupcion que le hacen un fra.casado.

m

Seguro que es la primera?

Un_señor_de_Cuenca

#3 Seguro que no, pero como ahora está quitando votos a la mafioesfera, alguien ha dado la orden de sacar la basura al sol.

m

#5 de los creadores de las cremas de Cifuentes...

Kleshk

#3 La primera que le pillan lol

johel

#8 La primera de la "los suyos" tienen tenian audios grabados.
A este le va a pasar como a Gil y Gil, se lo van a cargar por meter el morro en plato ajeno. Y que no hable de corrupcion que le hacen un fra.casado.

tommyx

#3 cierto, es la primera que le han pillado 

e

#3 para unas elecciones si

danymuck

Veremos algo de esto en los medios principales de comunicación? Supongo que para que salga en las noticias de Antena 3, Tele5, etc. haría falta que sostuviera el bebé de alguien en brazos durante unos minutos.

f

#31 #36 Por aquí alguien que lleva trabajando con LLMs años, y en IA décadas, y no a nivel usuario, sino profesionalmente. Sí razonan, de hecho el estado del arte de desarrollo de Agentes se basa en que puedan razonar.
Hace más de un año que se presentó el paper de ReAct (Reasoning and Acting) https://arxiv.org/pdf/2210.03629
Ese paper se ha usado como marco de inicio para la evolución de cómo funcionan los Agentes, y se han evolucionado cositas desde entonces.

Para los que no sepan lo que es: un Agente es un programa que posee habilidades (Skills), y se pueden hacer programas complejos encadenando habilidades de uno o más agentes. Por poner un ejemplo, digamos que una habilidad es leer un excel, otra es hacer gráficas, otra es hacer un powerpoint... Entonces si hablo con mi bot y le digo "toma este excel, necesito que de la tabla ingresos me hagas una gráfica por mes y me generes un powerpoint" debería poder hacerlo.

Esto no es algo nuevo, se lleva haciendo incluso antes de la existencia de LLMs, pero antes tenías que hacer un segmentador que intentase partir el texto en acciones atómicas, un NLU para entender cada una, un NER para entender los parámetros (el "por mes" por ejemplo), y eso fallaba como una escopeta de feria.

A día de hoy con LLMs mucho mejor por su habilidad para razonar. Hay un problema, como no, y es que razonan pero a pasitos pequeños, por eso el secreto no es hacer una única llamada al LLM, sino ir haciendo llamadas para razonar paso a paso en las que para que la LLM tenga el contexto de sus decisiones anteriores se le pasa un scratchpad. Un prompt de ejemplo para hacer ReAct lo tenéis en el hub de langchain: https://smith.langchain.com/hub/hwchase17/react

Razonar razona, pero pasito a pasito no todo de golpe. Y estaría bien que la gente dejase de mover la portería una y otra vez con "inteligencia" y "razonar", porque vivimos en unos años en los que resulta que tu hamster es la hostia de inteligente porque es capaz de resolver un laberinto de tamaño ínfimo, pero un programa de toma de decisiones no lo es....

ChukNorris

#59 Gracias por tus comentarios@fluffy

D

#57 eso por ahora, nuestro cerebro necesitó millones de años para evolucionar, mira como ha evolucionado la IA en 40 años, o como lo ha hecho en los últimos 5
que nos va a superar es solo cuestión de tiempo, y no demasiado

k

#65 Las máquinas no evolucionan como en la biología, aunque usemos esta palabra es con otro significado.

D

#85 eso lo doy por entendido, pero la tecnología si evoluciona (o llámalo como quieras)

D

#52 que sea complejo predecir nuestro comportamiento o respuestas a diferentes estímulos no significa que no seamos autómatas, y en un mundo regido por las leyes de la física no queda otra que el determinismo. Ergo si, somos más autómatas de lo que la mayoría piensa. Es más, ya se demostró que las decisiones se toman antes de nosotros ser conscientes de ellas.

sauron34_1

#64 no tiene por qué ser así, porque de estructuras complejas surgen nuevas características. De moléculas simples surgen células y de estas, animales multicelulares complejos.
De un cerebro determinista puede surgir un funcionamiento no determinista. Tampoco digo que sea así, pero los científicos se plantean esa posibilidad. De algo que nadie tiene todavía la respuesta no de pueden realizar afirmaciones tan contundentes.

rojo_separatista

#16, #20, lo acabo de probar con el modelo más avanzado o1-preview, el que razona internamente las respuestas antes de escribirlas y lo ha resuelto a la primera. Este es el problema que teneis muchos, que os quedais con la foto estática cuando esta tecnología está mejorando a pasos acelerados.

tusitala

#23 Es verdad. Yo le pedí a gpt 4 que hiciera un organigrama de mi empresa con los datos de todos los puestos y después de varias instrucciones lo hizo medio bien. o1 lo hizo a la primera con los mismos datos, y el "promt" fue "hazme un organigrama con estos datos". No lo dibujó, porque aun no puede. Pero organizó los datos de tal forma que era fácil la creación del organigrama.

rojo_separatista

#25, puedes probar de pedirle que te lo dibuje con látex. A mí me ha sorprendido lo bueno que es dibujando banderas con primitivas de OpenCV, algo que estoy casi seguro que no ha podido copiar de ningún lado, sino que ha comprendido como utilizar correctamente las primitivas para dibujar las banderas en función a sus descripciones textuales. Si esto no es razonar...

redscare

#29 No, no es razonar. Es probar cosas hasta que alguien te dice que el resultado es bueno.

k

#44 El análisis se define como la búsqueda exhaustiva de todas las posibilidades.

Pablosky

#23 claro, pero eso es hoy, hay bastantes capturas de pantalla de hace un mes que daban la risa floja con la versión inmediatamente anterior.

En cualquier caso sigue alucinando, así que sigue sin ser fiable cuando no sabe la respuesta.

rojo_separatista

#26, alucina mucho menos que las versiones anteriores, es una tendencia, el número de alucinaciones se va reduciendo. Por otro lado los seres humanos tampoco somos 100% fiables y no por eso dejamos de considerar que no somos inteligentes. La pregunta es, cuando estos modelos serán lo suficientemente fiables para poder fiarnos más de ellos que de un experto humano?

Lord_Lurker

#23 16 segundazos pensando. Aún ganamos.

k

#35 Tanto tiempo pensando indica que ha habido miles de iteraciones.

sorrillo

#1 De hacer eso lo honesto sería considerar que el cerebro también funciona a base de algoritmos correlacionales.

bronco1890

#2 Porque cuando éramos homínidos en la selva nos funcionaba (para allá van los buitres luego allí hay comida, uno se comió esa baya y murió, luego no debo comerla etc) y nuestro cerebro está programado para buscar correlaciones. Pero la correlación no sirve para resolver problemas en situaciones complejas.

sorrillo

#3 Pero la correlación no sirve para resolver problemas en situaciones complejas.

¿Qué sirve?

i

#4 tal vez ingenio, para dar un/el salto "no lógico" o correlacionado. O ser capaz de probar distintas aproximaciones, insistir con la prueba y error.

sorrillo

#5 El problema con el ingenio es que lo tenemos idealizado por la forma en la que nos contamos la historia.

Tendemos a elegir casos específicos, personas concretas, y las elevamos a la categoría de genios, de gente ingeniosa, y les atribuimos todo el mérito olvidando todas las contribuciones que hubo a su alrededor que lo hicieron posible.

La realidad es que para que Einstein pudiera poner su granito de arena tuvieron que existir montones de otras personas que previamente habían aportado el suyo para acabar construyendo la genialidad que se le atribuye, pero todas esas contribuciones se obvian y parece que de la nada surgió un genio que vio el mundo de forma completamente diferente a los demás.

A su vez grandes hallazgos se pueden atribuir a errores afortunados, los que están trabajando en antenas de radio y se dan cuenta que les cuece comida por accidente y acaban inventando el microondas, el que estaba haciendo un experimento y se olvida de él el fin de semana y cuando vuelve encuentra algo inesperado, el que ...

A todo ello decidimos usar palabras para describirlo que tienen definiciones vagas y que nos permiten hacernos sentir especiales, por ejemplo si te pido que me detalles cómo funciona el ingenio, qué requisitos específicos debe cumplir para ser catalogado de ingenio, posiblemente me remitas a otras palabras de definición vaga.

Con todo si miramos los resultados de las IA generativas de imágenes es difícil defender que algunos de sus resultados, de haber sido hechos por humanos, no habrían acabado siendo definidos como ingeniosos.

rojo_separatista

#3, me viene a la cabeza una pregunta:

¿Qué cosa es tan compleja para que sea imposible técnicamente de resolver jamás por una IA y a la vez puedan resolver la mayoría de seres humanos fácilmente?

A no ser que a partir de ahora redefinamos lo que es la inteligencia para que solo tengan cabida los grandes genios como Einstein pero por el camino excluyamos de la categoría de seres inteligentes a la inmensa mayoría de seres humanos, va a ser muy difícil tratar con categorías que nos permitan meternos dentro como especie y a la vez excluir a las IAs.

Asumámoslo, por decepcionante e incómodo que pueda resultar, tiene pinta de que todas las tareas intelectuales que hacemos se pueden reducir a una multiplicación de matrices si tenemos un número lo suficientemente grande de parámetros.

Pablosky

#15 del futuro no te puedo decir. Pero ahora mismo si le preguntas a Chat GPT cómo cruzar un río teniendo un bote en el que caben dos personas o animales y siendo tú una persona y la otra un pollo te dice que hagas dos viajes lol .

Veo

#16 Lo he ido a comprobar y es peor, me hace cruzar el rio tres veces!

Una con el pollo, otra de vuelta solo y por último otra vez yo con otro animal o solo.

rojo_separatista

#16, #20, lo acabo de probar con el modelo más avanzado o1-preview, el que razona internamente las respuestas antes de escribirlas y lo ha resuelto a la primera. Este es el problema que teneis muchos, que os quedais con la foto estática cuando esta tecnología está mejorando a pasos acelerados.

Sinopeus1
J

#16 Respuesta del chat:

Para cruzar un río en un bote donde solo caben dos personas o animales, y siendo que tú eres una persona y tienes un pollo, puedes seguir estos pasos para evitar que haya problemas en el trayecto:

 1. Primero cruza tú con el pollo: Cruza el río en el bote con el pollo y déjalo en la otra orilla.
 2. Vuelve solo: Regresa con el bote solo, dejando el pollo en la otra orilla.
 3. Cruza con otro objeto o ser si es necesario: En este caso, si no hay otros animales que puedan comerse entre sí o complicar la travesía (como podría ser el caso en algunos acertijos con zorros o granos), simplemente cruzas nuevamente con el pollo.

¡Con estos pasos logras cruzar el río sin complicaciones!

Fernando_x

#16 lol No, no lo hace.

alephespoco

#15 https://es.m.wikipedia.org/wiki/Paradoja_de_Moravec

Correr, el equilibrio y movimientos son especialmente complejos para las IAs.
Por lo que una IA sería terriblemente complejo que hiciera el trabajo de un fontanero, por ejemplo.

Se da la paradoja que lo que suponíamos de un nivel cognitivo alto (hacer resúmenes, pintar etc... ) no necesita tanta potencia de cálculo como para determinar como cambiar un grifo.

rojo_separatista

#17, esta paradoja no dice que el movimiento sea técnicamente imposible de resolver, sino que es más complejo que el razonamiento cognitivo, algo que puede resultar contraintuitivo para muchas personas.

k

#17 Correr es muy complejo si necesitas estar pensado en el próximo movimiento, así que lo no lo hacemos. El conjunto de movimientos se almacena en el cerebelo, que no tiene ninguna capacidad de pensar. No usamos el cerebro apenas.

M0l0ch

#15 Crear vida. (sí, follando lol)

Fernando_x

#27 Enhorabuena, has demostrado que las IAs no están vivas. La reproducción forma parte de la definición de lo que es vida. No inteligencia o razonamiento.

k

#15 Un humano no es más que una máquina en definitiva. Lo que un humano puede hacer, por definición, lo está haciendo una máquina.

Si ponemos más restricciones, como por jemplo que esté la máquina hecha con electrónica, quizás algunas cosas dejen de ser posibles.

Pero si decimos que una IA no puede hacer que tal, nos estamos refiriendo por defecto a una red neuronal. Esta tecnología hay muchas cosas que no puede hacer. Casi todas.

k

#3 Con el efecto secundario de las supersticiones.

goldorak

#2 El cerebro no funciona igual, ni de lejos, por eso están cambiando la arquitectura de los modelos actuales de forma que se parezcan mas a la forma en la que pensamos, si pensaras como una IA, cada vez que te pregunto algo calcularías las probabilidades de cual sería la siguiente palabra mas común después de tu pregunta, y no lo se con seguridad, pero dudo que hagas eso.

k

#32 No existe una tecnología que permita hacer lo que hace el cerebro.

s

#32 En realidad, muchos vendedores de humo hacen algo parecido, ir soltando las buzzwords más comunes.

No tengo claro si un LLM suficientemente avanzado es indistinguible de un vendedor de humo, o un vendedor de humo suficientemente avanzado es indistinguible de un LLM.

cognitiva

#1 la IA no es sólo aprendizaje automático.

#31 la IA no es sólo LLMs.

#2 #6 me recuerda la idea de la AGI (inteligencia general artificial) y cómo la inteligencia humana en realidad con sus sesgos y limitaciones no es tan general, pero nos cuesta imaginar qué hay más allá.

k

#47 la IA no es sólo LLMs.

Ahora mismo, si decimos IA, nos estamos refiriendo a LLM's, a menos que se indique explícitamente otra cosa.

cognitiva

#61 otro de los motivos por los que el imaginario público sobre lo que puede y no puede hacer la inteligencia artificial está equivocado.

sauron34_1

#2 no, eso no es verdad. No sabemos al 100% como funciona el cerebro, al fin y al cabo es un objeto estudiándose a sí mismo, pero lo que sí sabe es que no somos autómatas. Ya sabes, eso ya se descartó en los años sesenta con el fracaso del conductismo clásico en humanos.

ChukNorris

#52 El conductismo clásico "funcionó". (Creo que ya habíamos hablado de esto).

sauron34_1

#56 en humanos? Claro que no.

ChukNorris

#121 En niños.
El experimento del Pequeño Albert

D

#52 que sea complejo predecir nuestro comportamiento o respuestas a diferentes estímulos no significa que no seamos autómatas, y en un mundo regido por las leyes de la física no queda otra que el determinismo. Ergo si, somos más autómatas de lo que la mayoría piensa. Es más, ya se demostró que las decisiones se toman antes de nosotros ser conscientes de ellas.

sauron34_1

#64 no tiene por qué ser así, porque de estructuras complejas surgen nuevas características. De moléculas simples surgen células y de estas, animales multicelulares complejos.
De un cerebro determinista puede surgir un funcionamiento no determinista. Tampoco digo que sea así, pero los científicos se plantean esa posibilidad. De algo que nadie tiene todavía la respuesta no de pueden realizar afirmaciones tan contundentes.

k

#52 Un humano, o cualquier animal, es un autómata determinista.

sauron34_1

#78 no, no lo somos.
El conductismo clásico funciona en perros y no en humanos. Se sabe desde hace más de 60 años.

k

#2 El cerebro no hace nada ni parecido a eso. Funciona de otra forma totalmente distinta y los resultados son también distintos. No puede competir en velocidad con las máquinas, a pesar de una capacidad de cómputo abrumadoramente superior, y proporciona resultados de mayor calidad y mucho más confiables.

D

#57 eso por ahora, nuestro cerebro necesitó millones de años para evolucionar, mira como ha evolucionado la IA en 40 años, o como lo ha hecho en los últimos 5
que nos va a superar es solo cuestión de tiempo, y no demasiado

k

#65 Las máquinas no evolucionan como en la biología, aunque usemos esta palabra es con otro significado.

D

#85 eso lo doy por entendido, pero la tecnología si evoluciona (o llámalo como quieras)

d

#6 Precisamente mucha pasta no creo que tengan. Mira lo que han hecho por ahorrarse 20k

villarraso_1

#8 Supongo que #6 se refiere al juez o jueza

c

#8 El que guarda, siempre tiene.

La pasta es para ferraris, no para regalársela a panchitos

sotillo

#2 ¿Y lo de la justicia?
Después de pasar a disposición del Juzgado de Primera Instancia e Instrucción 1 de Pozoblanco, quedaron en libertad con la obligatoriedad de presentarse dos veces al mes en los juzgados. No obstante, en junio de 2023 no cumplieron con esta medida y se decretó una orden de busca y captura para la pareja. La mujer sigue en paradero desconocido, mientras que el hombre ha podido ser detenido y entregado al juez, aunque ha vuelto a quedar en libertad con las mismas medidas cautelares que ya se había saltado.
Esto es una coña, no me jodas

m

#3 El juez o jueza está a por uvas

PechitosMctetis

#3 Probablemente endogámicos de mil apellidos estériles, pero con mucha pasta

d

#6 Precisamente mucha pasta no creo que tengan. Mira lo que han hecho por ahorrarse 20k

villarraso_1

#8 Supongo que #6 se refiere al juez o jueza

c

#8 El que guarda, siempre tiene.

La pasta es para ferraris, no para regalársela a panchitos

o

#3 No hay racismo en España, ni lucha de clases hombre o que quieres insinuar que el juez trata mejor a unos que a otros?

p

#3 Una vez más se demuestra que la justicia que obtienes depende de tu posición social

Jesulisto

#3 No es una coña, es lo que aquí llaman justicia.