r

#9 Sí.
Curioso que nadie lo mencione por aquí. Pero me da que es más eso que otra cosa.
A ver si, finalmente, EEUU come de la misma mierda que tantas décadas a dado a comer a tantos países...

F

#127 Yo creo que después de haber vivido aquí una guerra civil no deberíamos desearsela ni a ellos.

r

#196 En EEUU se ha declarado legal que un presidente puede mandar asesinar a alguien por motivos de seguridad nacional.
No, no es coña.

r

#1 Como todos. Creo que no hay uno que haya cobrado algo de trump...

r

China es el futuro en muchas cosas. Y, en tecnología, mucho más.

r

#9 y/o el poder.
Y ahí acaban sus principios, metas, intereses e ideales.

Gintoki

#23 el poder solo para conseguir aún más dinero. Es su patria y su dios.

r

#5 La historia en "occidente" la escribe eeuu. Y la re-escribe a su gusto, como ha hecho tantas veces.

En unos años, cuando sólo queden palestinos en otras regiones, "occidente" seguirá hablando de lo demócrata, libre, faro de la humanidad y demás mierdas. Y es algo que viene sucediendo de hace más de 200 años.

reino unido se cargó directa/indirectamente más de 165 millones de indios en sólo 40 años (desde 1880) y nunca pasó nada y casi nadie dice nada. Y nunca se habla de eso.

MasterChof

#20 la historia la escribe Hollywood y ya sabemos quién la maneja.

r

#12 es cierto, 20000 bebés y niños eran tan malos que merecieron ser asesinados.

Te pagan y eres tan sádico que disfrutas con los genocidios y crímenes de guerra?

o

#19 #37 He venido a jugar al sarcasmo me lo merezco por no dar todo mascado y eso que puse el icono pero no con esas

r

#12 y qué coño tiene que ver si es de izquierdas, derechas, centro, arriba, abajo o lo que sea?
Si dice 2+2=4 tú dices que no, verdad?

r

#36 lo de "el que esté libre de pecado, que arroje la primera piedra", como que no lo pillas, no? o lo del "dedo y la luna"...

Lo imporante no son los "referentes", sino los hechos y las palabras. Tiene razón? pues como si fuera el hijo de puta del estado genocida de medio-oriente que lo dice... es verdad y punto.

Si quieres hablar del pavo, habla, pero matar al mensaje por el mensajero...

m

#46 El problema mayormente no es de donde viene el mensaje pero como se llega a él y que viene a continuación.

Cuando se saca a portada los mensajes de ultraderechistas solo porque coincide con la opinión que comparten los simpatizantes del Kremlin, se abre la veda a muchas otras cosas y claro, la gente se sorprende que en meneame salgan anuncios de la ultraderecha.

Dejamos para otro dia la gilipollez mil veces anunciada y mil veces refutada de que EE.UU le tenia miedo a una moneda respaldada con 6000 millones de dólares en oro que no da ni para entrar entre las 100 personas mas ricas del mundo

beltzak

#50 No se a que te refieres con lo de los 6000 millones. Si es por lo de la moneda africana… (que no creo) pero bueno.

“Las reservas de petróleo en Libia son las más grandes de África y las novenas más grandes del mundo, con 41.5 miles de millones de barriles ( 6,60 × 109 m³) a partir de 2007. La producción de petróleo fue de 1,8 millones de barriles por día ( 290 × 103 m³ / día) a partir de 2006, proporcionando a Libia 63 años de reservas al ritmo de producción actual, si no se encontraran nuevas reservas. Libia está considerada una zona de petróleo altamente atractiva, debido a su bajo costo de producción (tan bajo como $ 1 por barril en algunos campos), y la proximidad a los mercados europeos.”

No tardaron mucho los EEUU en usar cualquier excusa para entrar en Libia y robar el petróleo que Gadaffi . De hecho en los 80 EEUU ya intentó derrocar a Gadaffi.

https://radio.uchile.cl/2019/01/27/las-veces-que-eeuu-invadio-paises-petroleros-en-nombre-de-la-democracia-en-el-siglo-xxi/

r

#13 Por cierto, es mejor llama.cpp directamente, que ollama, pero ollama es más fácil.
Y para el que quiera tener algo multifunción "function calling, RAG, etc" open-webui (usa ollama) es lo mejor que hay. El RAG que tiene es muy bueno.
Y si se hace con modelos que se bajan al ordenador, entonces es todo privado. Nada va a internet para nada (a no ser que uno quiera agregar alguna web como parte de RAG).

Y si no están las versiones de instalación de un sólo click como jan.ai o llmstudio. Y ahí se pueden instalar modelos desde ahí mismo o bajarlos de huggingface.

banense

#40 Si yo uso la app de ollama por eso porque me permite tranajar directamente con diferentes modelos aunque a veces los ModelFile no están bien del todo pero eso se puede arreglar. Además es sencillo que nos permita descargar cualquier modelo y usarlo.

r

Ya lo he dicho antes, openai (que ya su nombre demuestra lo mentirosos que son) es una de las peores mierdas del planeta.
Están intentando que no existan los modelos libres, para que cualquiera que quiera usar alguno, tenga que hacerlo a través de alguna empresa.
Y, lo peor, es que gobiernos como el de eeuu, directamente les llama a ellos para colaborar en futuras leyes y demás.

Es de lo peor que puede pasar con "IA", control de la información, control de quién puede hacer modelos y manipulación. Son sus objetivos.

Odio a Microsoft y a Google, pero estos son 1000 veces peores!

r

#13 llama3 va de puta madre.
Y para equipos "pequeños" phi-mini va de lujo.
Hasta se pueden correr en un teléphono con más de 8Gb de RAM.

#33 no necesariamente, los que menciono aquí pueden correr en CPU o hasta en teléfonos, y a unos 3-5 tokens por segundo.

orangutan

#38 ¿Algún tutorial sencillo preferiblemente en español?

#33 Con una gráfica de 8Gb puedes cargar cualquier modelo 7B y usarlo sin demasiados problemas.

https://docs.llamaindex.ai/en/stable/examples/cookbooks/llama3_cookbook/#setup-llm-using-huggingfacellm

Sólo tendrías que seguir las instrucciones que aparecen al principio del enlace y cuando llegues al apartado de Setup sólo tendrías que descomentar las partes que ponen quantization_config y comentar la línea que te indica donde define el tipo de tensor. Con eso te ocuparía el modelo en memoria unos 5Gb

Si no te llega con tu tarjeta, puedes probar con Phi3 Mini como dice #38. Es cuestión de cambiar el modelo y el tokenizador al modelo de HuggingFace correspondiente. Ese ronda los 2.5Gb. Y si no siempre puedes ejecutarlo con CPU, aunque te aviso que es muy lento aunque tengas un buen procesador.

banense

#38 Yo estoy probando ahora esos modelos chinos por ejemplo qwen2 de 7B tiene un time per token brutal. he alquilado en runpods para correr el qwen 102B que es un abuso