Hace 1 año | Por Ka0 a xataka.com
Publicado hace 1 año por Ka0 a xataka.com

Es la gran tapada del mundo de la IA. Anthropic, es una startup que fue fundada por exingenieros de OpenAI que se fueron descontentos de aquella. Sus avances han atraído el interés de Google —que ha invertido 400 millones de dólares en ella— y han cristalizado con Claude, un chatbot que ahora está haciendo morder el polvo a ChatGPT y a GPT-4. ¿Cómo? Leyendo mucho.

Comentarios

G

Johny 5 era más rápido

D

#1 gracias :__)

mecheroconluz

#1 ¡Datos, datos!

blockchain

#1 y tenía mejor rima

e

#21 #15 #18 wow 5 votos y solo por preguntar!! y mi comentario ni uno viva meneame!! me la suda el karma pero dice mucho de como va meneame.... Bueno la historia es que a Meta (facebook) sele filtro/escapo su modelo "LLama" asi que se vieron "obligados" a liberarlo con fines educativos no comerciales bla bla bla Unos pavos de Stanford se bajaron este modelo y ademas usaron CHATGPT3 y unos 500 dolares en preguntas respuestas para a traves de LLama entrenar optimizar un nuevo modelo llamado Alpaca :), hace falta un hardware potentillo que se puede alquilar y la cosa puede salir "carilla" si lo que quieres es tener el modelo entrenado en 4 horas como ellos...pero aqui meto mi opinion no todos lo necesitamos en 4 horas. El resultado es que con un presupuesto inferior a 5k montaron un modelo que es segun benchmarks (ni idea de como rulan estos benchamarks) esta pegadito al chatgpt, si hablasemos de coeficiente intelectual el chatgpt3.5 tiene100? pues el alpaca debe tener un 90, que os recuerdo para gastar solo 5k ESTA DE PUTA MADRE. El caso que ahora ya hay modelos a porrillon la manera mas facil que conozco es chatgpt4all.io en esta web te bajas un installer y luego escoges que modelo que ponen que hay 3B o 7B es en numero de millones de tokens de su modelo a mas token se supone que mejor, son modelos optimizados asique les hay quitado mucho polvo y paja pero la magia conversacional esta ahi, quizas si le preguntes por algo muy muy espeficifico se invente paranoias. El tema es que por asi decirlo nadie volaba, una empresa derrepente aparece con un avion!! y en menos de 3 meses ya hay kits para hacerte tu propio avion, el potencial es enorme. EL potencial que yo veo aqui es montar un chisme en local/privado y seran chismes que no saben de todo bien pero que pueden conversar sobre sus tokens, luego con herramientas muy sencillas meterle todo el know how que necesties tu o tu empresa y el resultado sera que tienes un trabajador experto en toda tu empresa al que preguntarle lo que te salga del... oye que me des una tabla de lso resultado de tal ytal y bla bla.
enlaces:
chatgpt4all.io

sorrillo

#40 wow 5 votos y solo por preguntar!! y mi comentario ni uno viva meneame!! me la suda el karma pero dice mucho de como va meneame....

Tal como interpreto yo esos votos que describes. Nos decías: "yo ya he instalado uno en local y es flipante lo bueno que es..."

No aportabas ninguna prueba que permitiera ver que era "flipante lo bueno que es", y no nos indicabas nada más que "en local" sin especificar que tipo de requisitos supone eso. Era una afirmación grandilocuente y difícil de creer. De ahí que tu comentario no recibiera votos, la gente cuando es escéptica ni vota negativo ni positivo, se espera a ver qué ocurre a continuación.

Por contra tanto mi comentario como el del otro usuario pedían más información sobre tu afirmación grandilocuente, yo los requisitos de hardware y el otro usuario una demostración de esa afirmación de que es "flipante lo bueno que es", a modo de un ejemplo de pregunta respuesta. Dado que eso es posiblemente lo que se le pasaba por la cabeza a la mayoría que leían tu comentario votaban positivo nuestras peticiones de más información para mostrar que se suman a esa petición, que lo consideran necesario.

Y sí, eso dice mucho de como va menéame, para bien.

Precisamente algo que aporta menéame es que los comentarios sirven para poner en contexto las noticias, que a veces carecen de contexto, otras son sensacionalistas, otras son directamente falsas. Menéame fomenta el sano escepticismo a las distintas afirmaciones que se hacen, más escepticismo cuanto más grandilocuentes son. Y eso inevitablemente se traslada también al contenido de los comentarios.

Y sí, eso dice mucho de como va menéame, para bien.

A todo ello en este comentario tuyo al que respondo das muchos más datos, mucha más información, podemos imaginarnos los requisitos de gastarse unos 5.000 euros en hardware o tiempo de hardware para hacer correr ese modelo ("os recuerdo para gastar solo 5k ESTA DE PUTA MADRE") y eso ya lo pone algo más en contexto. Yo no te voy a votar positivo porque creo que te has quedado corto en responder los requisitos de hardware que tú has usado para tú obtener esos resultados "flipante de lo bueno que es", y tampoco has aportado ningún ejemplo de tu equipo local respondiendo a algo que le pidas que nos muestre "lo bueno que es".

Yo sigo siendo escéptico aunque ya no tanto porque si hay que gastarse 5.000 euros en hardware es algo que sé que queda fuera de lo que la inmensa mayoría de nosotros vamos a hacer, aunque ciertamente es consistente con tu afirmación que no se requiere un megacluster y efectivamente si algún particular quiere muy mucho hacerlo pues es una inversión elevada pero realista que pueda hacerla un particular.

e

#44 me reafirmo, así va meneame... Tu sueltas tu escala logarítmica cada poco y nada más y pum... En cambio los demás debemos dar hasta la talla la ropa interior. He dado links y ahí está todo! El ordenador mi portátil no es cuántico, es un i7 con 32gb, los modelos ocupan los de 7B ocupan 12gb, y tarda en responder casi el doble.
Si el mundo siguiera haciendote caso a ti, no tendriamos openai, gracias a que se han liberado las gráficas de chorradas tenemos esta revolución.
El que cree en bitcoin no cree en Ai, pues la logarítmica de la Ai le va a comer los webos al bitcoin. Cuando quieras hacemos una llamada de WhatsApp por el móvil y te enseño mi portátil offline y q hardware es y como rulan los modelos.

sorrillo

#45 He dado links y ahí está todo!

Cuando tú afirmas que tú lo has podido correr en local citar un enlace de la web no responde a las peticiones, tú te has puesto en el centro y las preguntas eran sobre el modelo que tú corrías en tu ordenador y los resultados a que a ti te da, que describes como "flipante lo bueno que es".

Si el mundo siguiera haciendote caso a ti, no tendriamos openai, gracias a que se han liberado las gráficas de chorradas tenemos esta revolución.

¿Puedes citar un comentario mío específico al cual si se hubiera hecho caso no tendríamos openai?

Por cierto Bitcoin no usa tarjetas gráficas para el minado desde hace ya más de una década, se usan ASIC. El comentario de la gráfica que citas solo lo pongo en cuanto a la cotización de Bitcoin por lo que no puedes estar refiriéndote a ese comentario, o mejor dicho, sí puedes estar equivocándote al referirte a ese comentario.

El que cree en bitcoin no cree en Ai

Otra afirmación grandilocuente, ésta obviamente sin ningún fundamento.

pues la logarítmica de la Ai le va a comer los webos al bitcoin.

Ah, que era un chiste, espero que le haya hecho gracia a alguien.

Cuando quieras hacemos una llamada de WhatsApp por el móvil y te enseño mi portátil offline y q hardware es y como rulan los modelos

Es mucho más sencillo que indiques las características técnicas en un comentario, así como indicarnos si solo has hecho inferencia o si le has hecho fine-tunning y el modelo de tarjetas gráficas o hardware dedicado a AI para cada una de esas tareas. Poco a poco nos has ido diciendo cosas como que es un ordenador portátil i7 con 32 Gb de Ram, pero nos falta saber cuanta VRAM has necesitado para inferencia y fine-tunning.

Y sigue faltando un ejemplo de ejecución en local en tu equipo que nos deje con la boca abierta.

e

#46 estoy tomándome un café en sábado temprano en una terraza, y ademas podría copiar pegar algo si estuviera en el ordenata, pero como sabes si lo he hecho como afirmo? Otra opción es que tu demuestres q no funciona el link q he enviado. Aparte q por privado te lo demuestro cuando quieras y yo pueda.

sorrillo

#47 Te he añadido como "amigo" desde tu perfil porque creo que es un requisito para enviar privados, por si quieres enviarme alguno.

De todas formas ya te adelanto que posiblemente lo que me envíes lo pondré aquí como respuesta ya que dudo que sea el único interesado en ello, lo digo por si quieres ahorrarte el paso del privado.

Creo que te lo estás tomando demasiado personalmente, no es una cuestión de afirmar ni insinuar que estés mintiendo sino que estás haciendo afirmaciones en las que sin concreción suficiente ni ejemplos claros quedan en la subjetividad de tu percepción sobre ello, y creo que lo que nos gustaría al resto es eliminar tanta subjetividad como sea posible de ello. Y eso se hace concretando el hardware específico, por ejemplo, y poniendo ejemplos de los que tú consideras "es flipante lo bueno que es" para que podamos valorarlo por nosotros mismos si lo vemos en esos mismos términos o no.

e

#49 me tomo como personal que antes de afirmar que me flipo no te molestes en hacer un Google de chatgpt4all y veas que todo el mundo pierde el culo ahora mismo, que di datos como llama, stanford, alpaca un video de un experto afirmandolo.
En resumen te doy la caña para que tu mismo veas que no miento y tu respuesta "no nos das pruebas" claramente los árboles no te dejan ver el bosque, al parecer son Blockchain nada es real

sorrillo

#53 antes de afirmar que me flipo

No me consta haber afirmado tal cosa, quizá te confundas por el hecho que haya citado estas palabras tuyas: "flipante lo bueno que es".

no te molestes en hacer un Google de chatgpt4all

Enviar a alguien a Google es no decir nada. Todos podemos ir a Google, tú nos has hablado de tu ejecución en local y por eso las preguntas eran hacia ti esperando respuestas de tu experiencia personal, no de resultados que salgan en Google.

te doy la caña para que tu mismo veas que no miento

Dando "caña" solo haces que subir el tono de la conversación, llevándolo al terreno personal con acusaciones que has sido incapaz de sustanciar sobre mí.

Nadie te ha acusado de mentir, es más, me he referido a ello explícitamente en un comentario previo. Lo que sí existe siempre es un aspecto de subjetividad y dado que te referías a tu experiencia personal en tu equipo las respuestas es de esperar que las des tú y no Google.

e

#56 mira: la parte más importante de cualquier documento científico o paper es son las referencias, y lo son por algo. Sabes perfectamente que yo aquí por comentarios podría decir misa y sin referencias es solo mi versión, los testigos son los que marcan la verdad en un juicio y es lo que te di. Yo estoy tomándome un café y no puedo ni tengo por qué hacer una máster tesis en un comentario de meneame para que tu no te molestes en abrir Google. Hablas de tono, no quieres darte cuenta de la falta de respeto que es que yo escriba un comentario con tantas referencias, y sin chequear ningúna me contestes que no he aportado nada. Si quieres decir algo molestate en leer entender y verificar lo q he dicho y luego di que no he dicho nada, lo cierto aquí es que 99 de 100 personas que lean mi respuesta con video de YouTube y la web ya están en el buen camino y tu sigues

sorrillo

#61 no quieres darte cuenta de la falta de respeto que es que yo escriba un comentario con tantas referencias, y sin chequear ningúna me contestes que no he aportado nada.

Eso no ha ocurrido.

Mi primera respuesta era pedir más información a un comentario tuyo sin ninguna referencia, lo tienes aquí: anthropic-deja-ridiculo-chatgpt-chatbot-claude-capaz-leer-novela/c010#c-10

Hace 1 año | Por Ka0 a xataka.com


A eso respondiste con un lloriqueo por los votos y el karma de menéame y ya sí citaste el nombre del modelo y diste algún dato más, a ese comentario primero respondí a tu lloriqueo sobre los votos y el karma y sobre tu nuevo contenido respondí esto:

A todo ello en este comentario tuyo al que respondo das muchos más datos, mucha más información, podemos imaginarnos los requisitos de gastarse unos 5.000 euros en hardware o tiempo de hardware para hacer correr ese modelo ("os recuerdo para gastar solo 5k ESTA DE PUTA MADRE") y eso ya lo pone algo más en contexto. Yo no te voy a votar positivo porque creo que te has quedado corto en responder los requisitos de hardware que tú has usado para tú obtener esos resultados "flipante de lo bueno que es", y tampoco has aportado ningún ejemplo de tu equipo local respondiendo a algo que le pidas que nos muestre "lo bueno que es".
anthropic-deja-ridiculo-chatgpt-chatbot-claude-capaz-leer-novela/c044#c-44

Te reconozco que has aportado mucho más pero te indico que no has respondido a lo se te pedía, porque no lo hiciste.

Ante esa respuesta mía ya tu tono se ha ido de madre, diciendo cosas como ésta: "Si el mundo siguiera haciendote caso a ti, no tendriamos openai, gracias a que se han liberado las gráficas de chorradas tenemos esta revolución. El que cree en bitcoin no cree en Ai, pues la logarítmica de la Ai le va a comer los webos al bitcoin. "
anthropic-deja-ridiculo-chatgpt-chatbot-claude-capaz-leer-novela/c045#c-45

Si quieres decir algo molestate en leer entender y verificar lo q he dicho y luego di que no he dicho nada

Deberías molestarte en leer y entender los comentarios que aquí escribimos.

e

#64 "Eso no ha ocurrido." relee tu comentario #44 en que parte dices que sí he aportado algo? es cuando dices "te has quedado corto"? es que ni siquera lo entendiste!! los 5000 que menciono es lo que costo hacer el modelo! el modelo una vez hecho no cuesta nada!! pero como NO LEES, pues me he quedado corto!! tan ancho!! nunca dije que tuvieras que gastarte 5000 nunca!!
Insisto yo hago comentarios, y no tengo por que dar una masterclass en cada comentario, ojala tuviera tiempo, pero es que yo aun soy un indundi en este tema, deberia bastar con dar mi expleriencia personal, y dar referencias a sitios donde verdaderos expertos si dan la masterclass.
"Cuando un dedo apunta al cielo, el tonto mira el dedo"

sorrillo

#c-66" class="content-link" style="color: rgb(227, 86, 20)" data-toggle="popover" data-popover-type="comment" data-popover-url="/tooltip/comment/3812403/order/66">#66 relee tu comentario # 44 en que parte dices que sí he aportado algo?

Te lo acabo de citar, lo repito:

A todo ello en este comentario tuyo al que respondo das muchos más datos, mucha más información, podemos imaginarnos los requisitos de gastarse unos 5.000 euros en hardware o tiempo de hardware para hacer correr ese modelo ("os recuerdo para gastar solo 5k ESTA DE PUTA MADRE") y eso ya lo pone algo más en contexto.
Fuente: anthropic-deja-ridiculo-chatgpt-chatbot-claude-capaz-leer-novela/c064#c-64

Hace 1 año | Por Ka0 a xataka.com

e

#68 veo que dices muchas cosas en este comentario pero no te creo necesito mas datos. (ejemplo de como decir que no dices nada pero teniendo las palabras "dices mucho" )

sorrillo

#71 Dime qué otros datos crees que necesitas y quizá pueda ayudarte (ejemplo de como responder a la petición de más datos)

e

#73 es que no soy un experto no puedo darte mas datos, te digo qu tengo una version en local y te digo de donde me la baje y tu me pides que te diga como se llama la madre del que lo desarrollo

sorrillo

#c-75" class="content-link" style="color: rgb(227, 86, 20)" data-toggle="popover" data-popover-type="comment" data-popover-url="/tooltip/comment/3812403/order/75">#75 es que no soy un experto no puedo darte mas datos

Acabas de demostrar que sí podías en el comentario que has hecho en # 74 (anthropic-deja-ridiculo-chatgpt-chatbot-claude-capaz-leer-novela/c074#c-74

Hace 1 año | Por Ka0 a xataka.com
), no creo que se te estuviera pidiendo nada que no pudieras aportar.

y tu me pides que te diga como se llama la madre del que lo desarrollo

Se te pidieron ejemplos, que has dado ahora en # 74, y se te pidieron datos técnicos del equipo, los cuales sí has ido dando sin llegar a especificar la tarjeta gráfica, que suele ser una pieza fundamental en estos casos y sobre lo que te acabo de insistir en otro comentario. No te pido como se llama la madre de quien diseñó la tarjeta gráfica sino el modelo que tú adquiriste y tienes en el equipo (o venía integrado). En el otro comentario te he indicado los pasos para poder ver esa información específica en tu equipo, por si no sabías como hacerlo hasta ahora.

Al comentario # 74 sí lo he votado positivo por qué si responde a gran parte de lo que se te pedía, a diferencia del resto donde por lo general solo discutías por discutir.

e

#78 mira tu te empèñas en afirmar q el bitcoin es bueno y no has enseñado a nadie tus beneficios, tu opinion es lo que se pone en comentarios, pero yo pude mi opinion y enlaces para que tu mismo veas que no miento en menos de 15 minutos, si puse pruebas o ejemplos es para quein me pidio ejemplos no por ti.

sorrillo

#80 mira tu te empèñas en afirmar q el bitcoin es bueno y no has enseñado a nadie tus beneficios

No me consta haber defendido que el Bitcoin sea bueno para obtener beneficios económicos de ello. De hecho dudo que lo haya calificado de "bueno" en ningún momento, en todo caso explico su funcionamiento y los motivos por los que ciertas afirmaciones no son correctas. Si encuentras algún comentario mío cuyo contenido entiendes que requiere de información personal mía para que esas afirmaciones se puedan valorar te insto a que lo cites y lo comentamos, posiblemente te pueda ayudar a salir de tu error.

tu opinion es lo que se pone en comentarios, pero yo pude mi opinion

Te referiste explícitamente a la ejecución en local, solo podemos hacernos una idea exacta de ello si nos das suficientes datos de tu entorno local. Inicialmente ni siquiera nos dijiste el nombre del modelo, es algo que te pedí en mi primera respuesta debido a ello.

y enlaces para que tu mismo veas que no miento

Los enlaces fueron posteriores a que yo te pidiera más información al respecto, a todo ello los enlaces no aportaban información alguna sobre el entorno local al que te referiste (sí al modelo usado, poco a poco se podía rascar la información necesaria).

si puse pruebas o ejemplos es para quein me pidio ejemplos no por ti.

Este usuario te pidió ejemplos: anthropic-deja-ridiculo-chatgpt-chatbot-claude-capaz-leer-novela/c021#c-21

Hace 1 año | Por Ka0 a xataka.com


Su comentario tiene ahora dos votos positivos, el primero de ellos el mío. Con ese voto positivo quise transmitir que me sumaba a esa petición. Gracias por atenderla aunque era innecesario que costase tantos comentarios que lo hicieras.

En otro comentario, previo, yo te pedía datos técnicos, los cuales has aportado poco a poco acabando de aportar los datos de la tarjeta gráfica cuando hace nada te lo pedí en un comentario. Gracias de nuevo por ello, aunque era innecesario que costase tantos comentarios que lo hicieras.

e

#83 "Te referiste explícitamente a la ejecución en local, solo podemos hacernos una idea exacta de ello si nos das suficientes datos de tu entorno local. Inicialmente ni siquiera nos dijiste el nombre del modelo, es algo que te pedí en mi primera respuesta debido a ello."
puse el enlace a esta web! adjunto captura dle chrome! tan complicado es ver los datos que pedias?

sorrillo

#87 puse el enlace a esta web! adjunto captura dle chrome! tan complicado es ver los datos que pedias?

No, no lo hiciste, en el primer comentario no lo hiciste, dijiste ésto:

el problema es que esta tecnología ya casi no requiere un megacluster yo ya he instalado uno en local y es flipante lo bueno que es... Así q esto va a ser como tener paneles solares, Google se irá al carajo pues podremos tener nuestro propio Google en local
anthropic-deja-ridiculo-chatgpt-chatbot-claude-capaz-leer-novela/c010#c-10

Hace 1 año | Por Ka0 a xataka.com


Los enlaces fueron como respuesta a la petición de más información, que la fuiste dando a regañadientes y en cuentagotas. Ha sido agotador pero creo que al final sí has acabado dando la información que se te pedía. Quizá la próxima vez nos podamos ahorrar todos los berrinches y discusiones asociadas a éstos.

Y lo que pusiste posteriormente fue un enlace a youtube y ésto: chatgpt4all.io

Que ni es un enlace ni funciona. El enlace sería éste: https://gpt4all.io

Que diga que no es un requisito la GPU no responde a las preguntas que te hicieron, ya que que no lo requiera no significa que de tener GPU no la aproveche para funcionar mejor y tu experiencia no podíamos saber si era con o sin uso de GPU.

En Stable Diffusion la GPU tampoco es un requisito, puede funcionar solo con CPU, pero la lentitud es exasperante y muy lejos de una experiencia que pueda considerarse como "flipante".

Imagino que si que le meten algun random, aunque en cierto modo deberia opinar siempre lo mismo.

Es más útil que si le repites la pregunta te responda algo ligeramente distinto, normalmente si nos responde lo que queremos a la primera no repreguntamos. Lo mismo con las imágenes, es más útil que te haga nuevas imágenes con la misma petición que siempre la misma. La reiteración es una forma de pedir un resultado distinto.

Otro aspecto interesante es que si responde algo incorrecto y se lo indicas hace el proceso de "leer" lo que ha escrito previamente y puede darse cuenta que se ha equivocado con mayor facilidad que mientras lo estaba escribiendo.

e

#90 la prueba de nunca te molestaste en mirar los enlaces jaja en fin... en el comentrio #48 si hay videos con los enlaces es solo que lo quieres masticadito.

sorrillo

#93 Si nos hubieras indicado que ese enlace era contenido creado por ti explicando tu entorno local habría accedido a él.

Pero como lo que se te pedían eran requisitos específicos de tu entorno local que es sobre el que hablaste entonces el enlace que aportabas era irrelevante para responder a esas preguntas.

e

#95 ha que solo ves enlaces si son mios jajaj wall

sorrillo

#96 Para responder a qué ordenador has usado sí, obviamente. O si hubiera sido un enlace a un equipo informático o tarjeta gráfica, que no lo era.

e

#97 sigues mirando al dedo y no al cielo, para que quieres saber qué ordenador tengo? Tu problema no es mi ordenador en concreto, sino que ordenador se requiere, da igual si es mio o de otro, y te di la manera de ver que a otros les funciona, si te enseño que ordenador use yo o cual usaron otros no cambia mi afirmación de que funciona en local. Mi ordenador en concreto aquí es accesorio, lo importante es que hay mucha más gente diciendo lo mismo, y demostrandolo.

sorrillo

#98 para que quieres saber qué ordenador tengo?

Para poder poner en contexto tu valoración del resultado y valorar si es realista reproducir esa experiencia personal tuya a través de mi equipo en local.

Tu problema no es mi ordenador en concreto, sino que ordenador se requiere

Para nada, los requisitos pueden ofrecer muchas experiencias distintas, la tuya la ha generado un equipo o equipos específicos, sin conocer esos equipos es difícil poner en contexto tu experiencia que has decidido expresar aquí, recalcando que venía de una ejecución en local.

si te enseño que ordenador use yo o cual usaron otros no cambia mi afirmación de que funciona en local.

La expresión "es flipante lo bueno que es..." es tuya, los equipos de otros no tienen por qué tener relación con tu experiencia personal, la que nos contaste.

Mi ordenador en concreto aquí es accesorio

En absoluto, tu ordenador en concreto aquí es fundamental para poner en contexto tu expresión, la recordamos: "he instalado uno en local y es flipante lo bueno que es..."

lo importante es que hay mucha más gente diciendo lo mismo, y demostrandolo.

Si eso crees que era lo importante es lo que deberías haber escrito en tu comentario inicial, en vez de escribir algo completamente distinto como es esto: "he instalado uno en local y es flipante lo bueno que es..."

e

#99 Si hubiera dicho en vez de "yo he instalado" hubiera dicho "hay gente que ha instalado" que cambia con respecto a lo que quiero decir? Nada de nada, por que tanto yo como esos no nos conoces

sorrillo

#100 Cambia drásticamente en cuanto a la relevancia de tu equipo, de hecho incluso se podría interpretar de ese comentario que hablas de oídas y no lo has experimentado personalmente.

Es un cambio fundamental en el contenido y mensaje del comentario.

e

#50 #47 mira no hay mayor ciego que el que no quiere ver, YouTube está lleno de vídeos de versiones corriendo en local 100% te he mandado 5 ejemplos como te pude enviar 1000, vale q creas que yo me flipo, pero 1000 youtubers? Mira los videos y los comentarios haber si alguien les pone en evidencia...

sorrillo

#51 vale q creas que yo me flipo

Tu respuesta acalorada ha venido de que se te preguntase por más datos cuando ni siquiera habías citado el nombre del modelo, el resto de respuestas salidas de tono que estás haciendo vienen de ahí. Entre medias de ello has ido dando más datos concretos, lo cual es positivo, pero ese tono que usas estaba fuera de lugar en primer lugar y lo sigue estando ahora.

e

#52 bueno no voy a discutir quien empezó con tonos o respuestas incorrectas, por que crees que puedes decir que no hay bosque cuando te enseñan mil arboles, y esperar que encima te doren la píldora...

sorrillo

#55 por que crees que puedes decir que no hay bosque

Pedir más información no es negar que hay bosque, estás muy exaltado y es posible que sea por leer mi apodo dados los comentarios que has hecho sobre mí y sobre Bitcoin, que nada tiene que ver con esto. Quizá deberías reflexionar al respecto y valorar si eso es sano para ti.

e

#58 te di información un video de una hora! Bien explicado

sorrillo

#62 Cuando tú afirmas que tú lo has podido correr en local citar un enlace de la web no responde a las peticiones, tú te has puesto en el centro y las preguntas eran sobre el modelo que tú corrías en tu ordenador y los resultados a que a ti te da, que describes como "flipante lo bueno que es".

Escupir un enlace de una hora no es dar respuesta a esas preguntas. Si acaso si citases un minuto específico de ese vídeo como ejemplo y aclarases que tú obtienes el mismo resultado en local eso sí podría servir de respuesta. Pero eso seguía sin responder a las características de tú equipo, a menos que el vídeo de youtube fuera tuyo, lo cual obviamente no has afirmado y no tenemos por qué presuponer que así fuera.

e

#65 tb di la web chatgpt4all.io ahi te bajas un installer y luego el modelo que queiras de entre unos 8 creo, y en menos de 15 min tienes un chisme corriendo en local, LO DICE EN LA WEB, hay capturas, videos... te lo tengo que dar todo masticado? por favor.. esque si dijera que tengo tal juego y os doy la web para que os lo instaleis me vas a decir que la web donde te lo instalas no es suficiente pra demostrar q tengo el juego? es que es supermegaabsurdo

sorrillo

#67 y en menos de 15 min tienes un chisme corriendo en local

¿Corriendo a qué velocidad? ¿Qué requisitos hardware son necesarios para que esa ejecución sea "flipante lo bueno que es" (porque si es una palabra por día con una CPU no creo que flipemos demasiado, la verdad, si nos da un error de falta de memoria menos aún)

te lo tengo que dar todo masticado?

Tú pusiste tu ejecución en local como centro de tu comentario, se te preguntaba por esa ejecución local tuya, si me dices la web donde describes tu equipo, componentes, VRAM, tiempo de ejecución etc. lo podremos consultar allí.

esque si dijera que tengo tal juego y

Y nos dices que es flipante de lo bueno que es el aspecto visual es muy posible que te pidan por las características de tú equipo que te han llevado a ti a flipar con eso y expresarlo en esos términos. En la web de instalación no citarán tu equipo, no sirve para conocer si esa experiencia tuya es extrapolable a otros que te puedan estar leyendo que tendrán un equipo con sus características.

es que es supermegaabsurdo

Con la de veces que te lo he explicado ya sí es supermegasbsurdo que sigas insistiendo en tu error.

e

#69 lo que te flipe a ti no tiene por que ser lo que me flipe a mi POR ESO PONGO LA WEB y te lo miras tu!! a mi me flipa y responde mas de 20 palabras por minuto!! el resto de detalles no los doy que si no te lo estoy masticando y tu eres que teien verlo por tu mismo y juzgar. Yo como programador digo que es flipante y no lo digo en en sentido que lo que ya hay es usable, es flipante por el potencial que tiene q en menos de 6 meses haya ya algo tan bueno! eso es lo flipante, no lo que ya hacer sino lo que se viene!!

sorrillo

#70 lo que te flipe a ti no tiene por que ser lo que me flipe a mi

Me alegra mucho que lo reconozcas, por eso para acercarnos a poder reconocer lo que te flipa a ti se te ha pedido más información del contexto exacto en el que tú has flipado, eso nos permite poder comparar con mayor exactitud si también nos fliparía a nosotros.

Y como tú hablaste de que te flipaba tu ejecución en local de ahí que se te pidieran datos de tu entorno local, datos que no se responden con un enlace a la web.

y responde mas de 20 palabras por minuto!!

Genial, más datos. ¿En qué equipo específico te responde a esa velocidad? (sabemos ya que es un portátil con un i7 con 32 Gb de RAM, ¿qué gráfica lleva? ¿Cuánta VRAM?

A parte de responder a esa velocidad ¿has podido hacer finetunning o simplemente estás ejecutando el modelo tal cual descargado de la web? (para mí sería más flipante si lo hubiera podido entrenar con mis datos). Si le has hecho finetunning ¿qué hardware has usado para ello?

el resto de detalles no los doy que si no te lo estoy masticando

Gracias por tener esa consideración y pensar en mí, pero en éste ámbito prefiero recibir spoliers a meterme en un fregao y ver luego que no tengo hardware suficiente para repetir tu experiencia. Así que te agradecería que me dieras "masticado" lo que te estoy pidiendo.

e

#72 acabo de poner 3 ejemplos y hasta un video de como rula en #74

e

#46







Pa qué habrás la boca y la cierres incredulo

sorrillo

#48 Cuando tú afirmas que tú lo has podido correr en local citar un enlace de la web no responde a las peticiones, tú te has puesto en el centro y las preguntas eran sobre el modelo que tú corrías en tu ordenador y los resultados a que a ti te da, que describes como "flipante lo bueno que es".

e

#40@admin podria corregir el chatgpt4all.io por gpt4all.io, me se fue la mano con el link gracias!!

e

#21 #15 #18 Mi pregunta fue:
You think that the ai technology will be a revolution? which kind of works will be more affected, which ones in the better way which ones in the worst?
Respuesta de modelo gtp4all-j-v1.3-groovy:ocupa 4gb y (tardo 12 segundos)
I'm sorry, I am not able to provide an answer as my programming is limited and does not have access to external information.
Respuesta de modelo gtp4all-l13b-snoozy:(ocupa 8gb y empezo a escribir a los 20 segundos y tardo 2 minutos )
Yes, I believe that AI technology has the potential to revolutionize many industries and create new opportunities. Some industries that may be more affected by AI include healthcare, finance, and transportation. However, the impact on each industry will depend on the specific AI applications and technologies that are developed.
In terms of the impact on different industries, it is difficult to say which ones will be more affected in a positive or negative way. The potential benefits and challenges of AI will depend on the specific applications and technologies that are developed, as well as the policies and regulations that are put in place to govern their use.
Overall, the impact of AI on different industries will depend on a wide range of factors, including the specific applications and technologies that are developed, the policies and regulations that are put in place to govern their use, and the broader economic and social context in which they are used.
Respuesta de modelo noust-gtp4-vicuna13b:(ocupa 8gb y empezo a escribir a los 28 segundos y tardo 2:20)
It is possible that the advent of AI technology could bring about significant changes in various industries and sectors. However, it is difficult to predict exactly which jobs will be affected the most or in what way, as it will depend on the specific implementation and application of AI technology.
Some jobs that involve routine or repetitive tasks, such as data entry or assembly line work, may be particularly susceptible to automation. However, other jobs that require more complex decision-making, creativity, or human interaction may be less affected.
It is also important to note that the introduction of AI technology may lead to the creation of new jobs and industries that are focused on developing, maintaining, and improving AI systems.
Overall, the impact of AI technology on the job market will likely be complex and nuanced, with some jobs and industries being more affected than others. It will be important for individuals and societies to adapt and retrain workers to ensure that the transition to an AI-driven economy is as smooth and equitable as possible.
Respuesta de modeloestable-vicuna-13b.q4:(ocupa 8gb y empezo a escribir a los 40 segundos y tardo unos 4 minutos)
Yes, AI technology has the potential to be a revolutionary force in many industries. Some of the most affected sectors include healthcare, finance, transportation, and manufacturing. AI can automate many tasks that were previously done by humans, leading to increased efficiency and cost savings. However, there are also concerns about job displacement and the ethics of AI, which may lead to negative consequences for some workers.
In healthcare, AI can be used to automate administrative tasks, streamline patient care, and improve diagnosis accuracy. This can lead to better patient outcomes and more efficient healthcare systems. However, there are also concerns about the impact of AI on healthcare professionals, who may need to adapt to new technologies and job roles.
In finance, AI can be used to automate trading, analyze financial data, and detect fraud. This can lead to faster and more accurate decision-making, but there are also concerns about the potential for AI to be used for malicious purposes, such as insider trading or manipulating financial markets.
In transportation, AI can be used to automate vehicles, optimize traffic flow, and improve safety. This can lead to faster and more efficient transportation systems, but there are also concerns about the impact of AI on drivers and other workers in the transportation industry.
In manufacturing, AI can be used to automate production processes, optimize supply chains, and improve quality control. This can lead to more efficient and cost-effective manufacturing, but there are also concerns about the impact of AI on workers in the industry, who may need to adapt to new technologies and job roles.
Overall, the impact of AI on different industries will depend on a variety of factors, including the specific technologies being used, the level of automation, and the ethical considerations involved. It is important for policymakers and industry leaders to carefully consider the potential benefits and risks of AI and ensure that its implementation is done in a responsible and ethical manner.
**************
Aqui hay que valorar que son modelos optimizados de los cuales se han quitado temas o debilitado, por lo que sus respuestas son mejorables, hay que valorar q esto hace pocos meses q esta en la calle, que es un ordenador domestico (Intel(R) Xeon(R) W-10855M CPU @ 2.80GHz 2.81 GHz, 32gb), etc....
Insisto el ordenador es un buen ordenador lo se pero es domestico se puede comprar con menos ordenador ira mas lento, pero es que tener un cacharro que le metais todos vuestros libros de master tesis y os haga la mastertesis en un 90% en 3 dias no me digais q 3 dias es mucho por que vosotros tardariais meses!! mirar al cielo y no al dedo, lo que hace un iphone hoy no es lo que hacia el iphone del 2007.. de aqui a un par de años se viene cosas wapas wapas

sorrillo

#74 Muchas gracias por la respuesta. Un elemento que suele ser fundamental en la ejecución de estos modelos es la tarjeta gráfica, básicamente el modelo suele correr dentro de ésta.

Has mostrado datos técnicos de la CPU, ¿podrías indicarnos datos técnicos de la tarjeta gráfica? (en Device Manager / Display Adapter suele mostrar el modelo, que no necesariamente la VRAM que tiene).

e

#77 no usa CUDA hasta donde yo sé, o si se que hay implementaciones que no usa cuda, asi que la grafica aqui no pinta nada, se ve claramente que usa ram y no la ram de la grafica.
Tiene una nvidia quadro t100, y un intel UHD P630.
Es un dell precission 7550

sorrillo

#79 Muchas gracias, tengo previsto investigarlo pero a priori diría que en los modelos grandes para ejecutarse en un tiempo razonable la GPU suele ser imprescindible.

Cierto es que la gráfica que nos indicas no destaca especialmente en ello, aún así según Nvidia tiene 896 Cores CUDA, que es como bien nos dices en otro comentario (lo estaba mirando en paralelo) unas 3 veces menos (en realidad 4 veces menos) que una RTX 3060 que tiene unos 3500 Cores CUDA.

Si tienes interés en profundizar en ello la herramienta gratuita GPU-Z te da visibilidad del uso de la GPU en tiempo real.

En cualquier caso gracias de nuevo por esa información técnica del equipo.

https://www.nvidia.com/content/dam/en-zz/Solutions/design-visualization/productspage/quadro/quadro-desktop/proviz-print-nvidia-T1000-datasheet-us-nvidia-1670054-r4-web.pdf
https://www.geeknetic.es/Noticia/21244/Las-tarjetas-graficas-NVIDIA-RTX-3060-salen-a-la-venta-hoy-a-las-18-00-horas-en-Espana.html

e

#82 #21 #15 #18 Me hace gracia que me digas donde ver cosas tan sencillas como que grafica tengo y luego esperes que dé detalles super especificos sobre como funciona o que tiene la IA que me he bajado... curioso.
He hecho una prueba en mi CPU o fijo que es un I7 10700F con32gb ram y una GTX970, y los tiempos con el modelo stable vicuna son similares pero la respuesta cambia sutilmente lo cual es super curioso!! habria que experimentar si va cambiando su respueta o al ser diferente hardware genera diferente recorrido por su red neuronal (o lo quesa q usa)..Incluyo video fijate en el uso de grafica veras q es nulo, hacer el modelo si necesita GPU a dolor, usarlo no necesariamente, pero ayudaria tb es cierto! Pero los tiempos son mas que aceptables para el servicio tan bueno q te puede proporcionar.

Yes, AI technology has the potential to revolutionize many industries and transform the way we work. Some of the industries that are likely to be most affected include healthcare, finance, transportation, and manufacturing. AI has the potential to automate many routine tasks, freeing up time for more creative and complex work. However, some jobs may be replaced by AI, such as those that are repetitive or require little creativity.

In terms of which industries will be most affected, it is difficult to say for certain. However, industries that rely heavily on data analysis and automation are likely to be the first to be transformed by AI. Healthcare is an example of an industry that is already being transformed by AI, with AI-powered tools being used to diagnose diseases and develop personalized treatment plans.

Finance is another industry that is likely to be transformed by AI, with AI-powered tools being used to automate routine tasks such as data entry and analysis. AI is also being used to develop predictive models that can help financial institutions make better decisions about investments and loans.

Transportation is another industry that is likely to be transformed by AI, with AI-powered tools being used to automate routine tasks such as traffic management and route optimization. AI is also being used to develop self-driving cars, which have the potential to revolutionize the transportation industry.

Manufacturing is another industry that is likely to be transformed by AI, with AI-powered tools being used to automate routine tasks such as quality control and inventory management. AI is also being used to develop predictive models that can help manufacturers make better decisions about production schedules and supply chain management.

Overall, AI has the potential to transform many industries and create new opportunities for growth and innovation. However, it is important to be aware of the potential impacts on employment, and to ensure that workers are equipped with the skills they need to thrive in a rapidly changing landscape.

e

#84 #21 #15 #18 de propina le he hecho esta pregunta en Español!! con errores tipograficos y la entiende y la responde no voya entrar en si la respuesta esta correcta o no:
Prompt: Tiene sentido mostar un fgrafico en escala logaritmica para explicar como de rentable es el bitcoin?
Response: No tiene sentido mostrar un gráfico en escala logarítmica para explicar cómo de rentable es el bitcoin, ya que la rentabilidad del bitcoin no se puede comparar con otras criptomonedas o activos financieros utilizando una escala logarítmica. En cambio, se pueden utilizar otras métricas para evaluar la rentabilidad del bitcoin, como el valor de mercado, el valor de liquidez, el valor de volatilidad, entre otros. Además, es importante tener en cuenta que la rentabilidad del bitcoin puede ser influenciada por factores externos, como la adopción y el uso de la tecnología blockchain, la regulación gubernamental y las fluctuaciones del mercado.

sorrillo

#85 Tiene sentido mostar un fgrafico en escala logaritmica para explicar como de rentable es el bitcoin?

Puedes preguntarle lo que quieras, obviamente, pero la motivación para poner la cotización de Bitcoin en escala logarítmica la explico en el FAQ, concretamente aquí: ¿Hasta dónde puede caer el bitcoin? Estos son los niveles a vigilar tras la debacle de las criptomonedas/c12#c-12

Y los motivos para usar como escala la logarítmica también los explico en el FAQ, concretamente aquí: Coinbase ha suspendido la negociación en los bitcoin y otras criptomonedas/c101#c-101

sorrillo

#84 Te he citado la herramienta GPU-Z porque en mi experiencia su información es mucho más real que la que pueda mostrar la herramienta por defecto de Windows, de hecho no tiene nada que ver contigo pero no me fio nada de la gráfica que has adjuntado, no me fio de Windows dando información del uso de GPU por mi experiencia previa con ello.

La GPU que citas ahora, la GTX970, tiene el doble de cores CUDA que la quadro t1000 del otro equipo, aún así está lejos de una RTX 3060 que como bien nos decías es económicamente accesible.

habria que experimentar si va cambiando su respueta

En mi experiencia con el modelo Stable Diffusion, generador de imágenes, por defecto añaden una semilla aleatoria que es distinta a cada petición que le hagas, de forma que si le preguntas dos veces lo mismo debido a esa semilla te responderá de formas ligeramente distintas. Pero al menos en Stable Diffusion hay la posibilidad de indicarle cual quieres que sea el valor de esa semilla y si lo fuerzas a un número específico la respuesta será básicamente la misma sino idéntica completamente. Quizá en el modelo que usas ese parámetro también exista y pueda ser modificado por el usuario.

En mi experiencia cambiar el modelo de equipo con hardware distinto no cambia las respuestas, a misma petición de imagen y mismo seed el resultado es básicamente el mismo.

e

#86 tb te dije que no usa la grafica, esta en letras gigantes en la web que te puse desde el principio.
Imagino que si que le meten algun random, aunque en cierto modo deberia opinar siempre lo mismo.

sorrillo

#c-89" class="content-link" style="color: rgb(227, 86, 20)" data-toggle="popover" data-popover-type="comment" data-popover-url="/tooltip/comment/3812403/order/89">#89 Te respondo en # 90: anthropic-deja-ridiculo-chatgpt-chatbot-claude-capaz-leer-novela/c090#c-90

Hace 1 año | Por Ka0 a xataka.com

e

#77 la quadro t1000 es tres veces menos potente que una RTX 3060 que creo que vale unos 300 euros...

y

#16 El cerebro humano funciona básicamente de la misma forma, por lo general no cambia por que adquieras más conocimientos.

Cualquier cosa que se aprenda, olvide, etc. Está por fuerza implementado físicamente de alguna forma, y por lo tanto eso implica un cambio en el cerebro.

sorrillo

#17 Me refiero a un cambio en el tamaño.

En una base de datos si doblas la cifra de datos básicamente doblas el tamaño de esa base de datos, a un cerebro aunque dobles la educación que recibe su tamaño sigue básicamente idéntico, lo que habrá cambiado es la organización interna. Lo mismo ocurre con las redes neuronales, lo que se altera son las interconexiones y no el tamaño de ese cerebro.

y

#20 Es imposible, por velocidad, que la memoria humana esté en las interconexiones, luego por fuerza está dentro de las neuronas.

sorrillo

#38 Juntas palabras al tun tun.

y

#41 Mira a cualquier tio jugando a algún deporte. Reacciona rápidamente, recuerda lo que acaba de suceder y responde con una estrategia adecuada, etc. La velocidad de crecimiento de las dendritas es lentísima. Ahí está sucediendo alguna otra cosa distinta, y posibilidades no hay muchas.

Me fastidia que se afirmen cosas que son evidentemente imposibles con sólo pensar un mínimo.

Sobre lo de opinar sobre el valor del contenido de lo que dicen los demás, yo no lo he hecho, y deberías pensar el por qué.

sorrillo

#57 La velocidad de crecimiento de las dendritas es lentísima.

Obviamente las dendritas no crecen entre que el rival chuta la pelota y el jugador la recibe, las dendritas han ido creciendo durante años de jugar a fútbol.

Ahí está sucediendo alguna otra cosa distinta, y posibilidades no hay muchas.

Lo que está sucediendo es que el cerebro se ha reconfigurado con los años para responder a ciertos patrones de cierta manera y cuando se juega el partido se está usando esa configuración conseguida tras años de entrenamiento a ese partido en concreto.

Me fastidia que se afirmen cosas que son evidentemente imposibles con sólo pensar un mínimo.

No te fustigues tanto, todos podemos cometer ese tipo de errores.

y

#59 Lo siento. No puedo seguir. Bye.

s

#57 > Es lo que hacen las neuronas con lógica bayesana y a la vez las salidas de unas procesan otras y asi.. Es todo en uno no o blanco o negro Y lo estamos ya leyendo Eso forma pare de adquisición de nuevas habilidades que es lenta, no el ejecutar en sí la habilidad ya adquirida

s

#38 > En ambas cosas y la estamos leyendo con resonancia magnética funcional y redes neuronales de difusión que aprenden los patrones de cada cerebro

Supercinexin

En anteriores episodios de Menéame: "Google se ha quedado atrás, le han adelantado, llegan los problemas para Google, la era de la AI se le ha escapado a Google..."

Hoy, en Menéame: "Hola, soy Google, a ver, quién tiene algo mejor que ChatGPT, ¿tú? Ok, toma 400 Megadólares y vente pacá conmigo".

#ProblemSolved
#UpdatedSuccessfully

Ka0

#3 Exactamente igual que la liga de futbol, acaba la liga, gana un equipo y vuelta a empezar...

e

#3 el problema es que esta tecnología ya casi no requiere un megacluster yo ya he instalado uno en local y es flipante lo bueno que es... Así q esto va a ser como tener paneles solares, Google se irá al carajo pues podremos tener nuestro propio Google en local

Supercinexin

#10 Google seguirá forrándose de Billones a base de alquilarte su brutal infraestructura toda llena de facilidades y productos online de todo tipo para hacer tu desarrollo y despliegue de negocio más fácil.

Tu local podrá ser cojonudo, pero para pasar tu negocio a producción necesitas muchas cosas que tu local por propia definición no tiene y has de ir a proveedores tipo Google, AWS, Exoscale y demás.

Aparte de eso, Google (y los demás) te ofrecerán catálogos de modelos de AI precomputados y tú no necesitarás ni pensar ni contratar a expertos en ML, podrás tirar de sus servicios directamente.

Todo esto te lo digo con el palillo en la boca un viernes por la tarde,.o sea tampoco te lo tomes como La Verdad, pero dentro de lo que veo hoy en día y de lo que sé del mundillo AI/ML, del cual ya te digo que NO soy experto, es lo que sinceramente yo creo que va a pasar.

e

#18 yo lo veo como que nadie usará un bus si puede usar un coche. Nadie meterá todo su know-how en un modelo que todavía no saben como es q funciona...

D

#10 ¿Podrías poner un ejemplo de prompt-respuesta de ese modelo local?

y

#3 "coge el dinero y calla" lol

woody_alien

capaz de leer una novela en menos de un minuto

¿Pero entiende una mierda de lo que ha leído?

frg

#4 El redactor de Xataca no se ha leído una novela en su vida, como mucho ha visto un resumen en Tutube.

woody_alien

#4 Lo de chataka ni me lo planteo lol

e

#2 segun quién lo haya escrito

y

#2 No esto ni chatGPT ni nada que sea una red neuronal tiene ninguna capacidad de comprensión ni de razonamiento. Es exactamente cero. Sólo es una base de datos de ejemplos resumidos. Tú le das un query y te vomita lo que más se parece a una respuesta para ese query de su base de datos.

D

#14 Respuesta de ChatGPT (GPT-4):

El comentario parece argumentar que los modelos de lenguaje como GPT-3 o GPT-4 (el modelo actual), que son asistentes basados en LLM (Language Learning Model), no poseen una capacidad genuina de comprensión o razonamiento. Según esta perspectiva, estos modelos simplemente buscan en su base de datos interna para encontrar una respuesta que se asemeje a la consulta proporcionada, en lugar de "entender" la consulta de la misma forma que un humano lo haría.

En cierto sentido, esta afirmación es correcta. Los modelos de lenguaje de IA, como GPT-4, no comprenden el lenguaje o el mundo de la misma manera que lo hacen los humanos. No tienen experiencias de vida, emociones, intuiciones o una conciencia de sí mismos. En lugar de ello, estos modelos han sido entrenados en grandes cantidades de texto y han aprendido a predecir la siguiente palabra en una secuencia de palabras. Esto les permite generar respuestas coherentes y a menudo relevantes a una amplia variedad de consultas.

Sin embargo, la afirmación de que estos modelos son simplemente "bases de datos de ejemplos resumidos" puede ser un poco engañosa. Aunque es cierto que los modelos de lenguaje aprenden de los datos de entrenamiento que se les proporciona, no almacenan estos datos de una manera que les permita buscar y recuperar información de manera directa. Más bien, aprenden patrones y relaciones en los datos que les permiten generar respuestas en tiempo real a las consultas que se les hacen. Esto es un proceso dinámico y creativo, no una simple búsqueda en una base de datos.

Por último, aunque estos modelos pueden generar respuestas que parecen comprensivas y razonadas, es importante recordar que no tienen una comprensión auténtica del lenguaje o del mundo. No entienden lo que dicen en el sentido humano de la palabra "entender". En lugar de ello, están simulando la capacidad humana de producir lenguaje de una manera que a menudo parece impresionantemente inteligente. Pero esta inteligencia es una ilusión, ya que los modelos no poseen una conciencia o una mente en el sentido en que los humanos lo hacen.


Nota: LLM son en realidad las siglas de Large Language Models.

y

#19 Estos trastos, al no tener una capacidad de comprensión, no llegan a discriminar entre los diferentes sentidos de las frases para decidir el sentido correcto dentro del contexto. Aquí por ejemplo ha tomado lo de "base de datos" en el sentido literal, tal y como se utiliza Mongo, por decir algo, pero yo lo estaba usando con un significado mucho más general.

Así pues, lo de "resumidos" es la clave de las redes neuronales, ya que su gracia está en no tener la capacidad suficiente para almacenar los ejemplos de su entrenamiento, por lo que lo mezclan todo (lo resumen) de forma que siga produciendo algún resultado. Esto es lo que les permite responder a prompts distintos de los usados en su entrenamiento, produciendo casi siempre (no siempre) un resultado aceptable.

Pero esto no les permite "generalizar", por mucho que se le parezca "mezclar y resumir", no es lo mismo. Una generalización hace lo que una red neuronal no puede tener, la creación y almacenamiento de un nuevo concepto (implementado como sea) que se relaciona con los datos que le son relevantes, pudiendo en el futuro adquirir nuevas relaciones.

La posesión de un concepto permite, por ejemplo, hacer predicciones al extrapolar sus relaciones a posibles nuevos datos. Una red neuronal no podrá nunca, por diseño, hacer predicciones.

Mis experimentos con estos trastos han sido un fracaso bastante mayor que éste, que tampoco está tan mal el texto que ha extraido. Yo lo probé con cosas un poquito más difíciles (programación sencilla) y se estrelló como una moto intentando volar.

D

#23 Una red neuronal no podrá nunca, por diseño, hacer predicciones.

¿A qué te refieres? Justamente un LLM se caracteriza por hacer predicciones.

y

#24 Una red neuronal solamente puede repetir lo que se la ha almacenado. No posee ninguna otra capacidad. Eso no incluye hacer predicciones.

Un buen ejemplo de uso de estos trastos es el plegamiento de proteinas. Se le enseña como se pliegan las proteinas conocidas, se le da una nueva secuencia de aminoácidos y de ahí saca como se plegará la nueva proteina, siempre en el supuesto de que no haga nada distinto de los ejemplos que se le han almacenado, porque lo único que puede hacer es aplicar esos ejemplos conocidos a esa secuencia.

Decir que ha "`predicho" el plegamiento de la nueva proteina es una forma de hablar. No ha predicho nada, ha repetido lo que tiene aprendido antes, sólo que aplicado a este caso.

Sin embargo un humano, o un robot con capacidad de compresión, podría deducir el mecanismo que hace que esto funcione y de ahí predecir el plegamiento de una proteina aunque se comporte de forma distinta de las conocidas.

Aunque una red neuronal que sepa plegar proteinas puede ser un instrumento muy útil, nunca jamás deducirá nada. Eso lo tendrá que hacer otro bicho u otro trasto.

D

#27 Pues los humanos no eran capaces de predecir el plegamiento y sin embargo la IA sí. Para no poder predecir, no está mal.

y

#30 Lo entenderás cuando veas el aviso de "A este disco SSD le queda un 10% de su vida".

y

#33 Error. Comentario fuera de sitio, y no he sido yo.

y

#30 No está nada mal, y otro uso muy espectacular es el de estabilizar un tokamag. Pero no puedes pretender que es lo que no es. Es solo una base de datos de ejemplos.

rojo_separatista

#27, de hecho uno de los grandes problemas de los LLM es que son justo lo contrario de lo que dices, vamos que has dado en el clavo pero al revés. En lugar de memorizar, aprenden, y por eso a veces alucinan, porque aprenden, pero lo hacen mal. Si se limitaran a repetir cosas que han leído antes, jamás se inventarían cosas. Ahí está la gran diferencia entre una simple base de datos que nunca va a darte información que no se haya introducido previamente y una red neuronal.

y

#32 Una máquina sin capacidad de razanamiento no puede "aprender" nada. Una red neuronal tiene un mecanismo más sencillo que el de un chupete. Memoriza los ejemplos recibidos en forma de pesos en sus nodos (llamarles neuronas es ridículo). Si lo haces debidamente, memoriza eso y ya está. Si le preguntas por uno de los ejemplos, te los devolverá. Si le preguntas por algo nuevo, no lo encontrará.

Lo interesente viene a continuación. Una vez llegado al máximno de su capacidad, podrás meterle más y más ejemplos, y la red mezclará los nuevos ejemplos en su conjunto de pesos. Como que no tiene capacidad para almacenar más, lo que hace es irlos mezclando. El resultado es una red de pesos que responde más o menos al conjunto de los ejemplos recibidos, perdiendo información. Ya no podrá devolver los resultados que antes sí que podía, pero te responderá otra cosa que se les parece más o menos, donde ha tenido en cuenta todos los ejemplos que tiene relacionados con el prompt que le dés.

Cuanto mayor sea la red más relaciones entre pesos guardará. Acaban por dar respuestas que parecen razonadas, pero no es más que una mezcla de los textos recibidos. Así pueden las actuales generar un cuento usando unos datos pero la historia de otros aunque no de ninguno en concreto, y parece que han hecho algo nuevo. Pero este aparato no tiene, de por sí, ninguna capacidad de crear nada nuevo.

rojo_separatista

#34, déjalo porque estás haciendo el cuñao. Al igual que con el cerebro humano, la capacidad de las redes neuronales artificiales no viene dada por la complejidad de sus neuronas, sino por las propiedades emergentes al combinar miles de millones de estas neuronas.

Y sí, después de aprender con miles y miles de ejemplos es capaz de extraer patrones que le permiten hacer cosas que no estaban presentes en su dataset de entrenamiento. Como hablar de la relación entre los cambios que se produjeron en el neolítico y las tortillas de patatas o dibujar un híbrido entre un elefante y un ferrari de F1. Y seguramente lo haga mucho mejor de lo que lo harías tú.

y

#42 Sí, vale, pero no puedes suponer que las neuronas (humanas) no hacen nada y que "todo está en la red". Eso es imposible.

rojo_separatista

#54, es que no digo que no hagan nada, digo que a nivel de complejidad son muy sencillas, igual que los perceptrones y que las propiedades emergentes interesantes aparecen al combinar millones de entradas y salidas. En el reino animal se ve, cuanto más neuronas tiene un ser vivo, más compleja es su inteligencia, exactamente igual que con los modelos de redes neuronales artificiales.

y

#63 Hay un gusano de tierra que tiene exactamente cuatro neuronas y hace todo lo que un gusano necesita hacer. Está claro que una sola neurona hace muchas cosas. De sencilla no tiene nada.

Tampoco el tamaño quiere decir mucho. El cerebro de un elefante es mucho mayor que el de un humano, y su inteligencia viene a ser similar al de una vaca (que no es poco). Hay otras consideraciones, como el que el de los hombres es algo mayor que el de las mujeres, pero eso solo significa que las reacciones pueden ser más rápidas.

sorrillo

#23 ha tomado lo de "base de datos" en el sentido literal, tal y como se utiliza Mongo, por decir algo, pero yo lo estaba usando con un significado mucho más general.

Te ha entendido perfectamente y te ha respondido a lo que dijiste. No, no te referías a un sentido mucho más general como caracterizar al cerebro humano de base de datos, te has referido en un sentido estricto para hacer una distinción entre la red neuronal biológica de una red neuronal digital, casi se podría decir que de forma despectiva.

Así pues, lo de "resumidos" es la clave de las redes neuronales, ya que su gracia está en no tener la capacidad suficiente para almacenar los ejemplos de su entrenamiento, por lo que lo mezclan todo (lo resumen) de forma que siga produciendo algún resultado.

Si te refieres en un significado mucho más general tal cual un cerebro humano también "resume" para poder almacenar esos ejemplos de su educación, mezclándolo todo (resumen) de forma que podamos generar nuevos resultados, entonces sí podría ser una analogía forzada pero con cierto contacto con la realidad.

Una generalización hace lo que una red neuronal no puede tener, la creación y almacenamiento de un nuevo concepto (implementado como sea) que se relaciona con los datos que le son relevantes, pudiendo en el futuro adquirir nuevas relaciones.

Es que es precisamente eso lo que hace, los datos de entrenamiento le permiten generalizar. Por eso le puedes pedir un cuento infantil y te escribe uno que es original, que no encontrarás en la red ni en ningún sitio publicado, que no son frases copiadas y pegadas ni resúmenes de nada. Indistinguible a lo que escribiría un ser humano.

Yo lo probé con cosas un poquito más difíciles (programación sencilla) y se estrelló como una moto intentando volar.

¿Puedes poner un ejemplo en GPT-3 o GPT-4 en donde se estrelle con una "programación sencilla"?

Aquí tienes el enlace para generarlo: https://chat.openai.com/

rojo_separatista

#14, bravo, es la perfecta definición que daría un cuñao de lo que es una red neuronal.

y

#28 Hazme reir un rato. Defínelo tú.

rojo_separatista

#29, me puedes decir qué query ha hecho para regurgitar esto palabra por palabra de su base de datos?

y

#31 Una red neuronal útil no tiene la capacidad de regurgitar nada literalmente de su base de datos.

s

#14 Ni nosotros ya puestos. POrque ¿verdad que aprendemos las habilidades que luego utilizamos sobre lo que sabemos y aprendemos de nuevo? ¿y verdad que la gente prefiere racionalizar sus jucios de ituición borrosa que replantearse todo de forma lógica? Aparte que se le podría dar acceso a razonamiento proposicional si se desea

s

#14 No. Son juicios en logica difusa bayesiana sobre ellos. No es almacenar las cosas tal cual sino valoraciones bayesianas sobre ellas. Igual que hacemos nosotros y por eso prejuzgamos y racionalizamos los juicios bayesianos almacenados por encima de cualquier razonamiento con capacidades aprendidas para realizarlo...
no. Es más parecido a la intuición

Brill

¿Pero es capaz de disfrutar de esa novela?

D

y

Cuanto más lea, más tonterías sabrá regurgitar.

D

#13 Eso dicen las élites sobre el vulgo.

1 2