#51 creo que meneame está eliminando las barras invertidas, si está correcto en regex y no puede probarlo en local, súbelo a prod y se testea ahí (qué remedio)
#41 con escapar las / es suficiente, es el único error que veo, puedes copiar la regex en una web como regex101 para php, que es donde yo testeo estas cosas, te va diciendo si es correcta o no
#68 si lo que quieres hacer es hacerle preguntas a la IA sobre el contenido de los ficheros, eso se puede hacer con RAG (Retrieval Augmented Generation), aquí un tutorial python.langchain.com/docs/tutorials/rag/. Y no necesitas hacerle fine tunning al modelo.
Flowise es una herramienta que puedes instalar en local que dispone de un canvas para crear chatbots y que tiene un marketplace para compartir los chatbots generados por los usuarios, pero no se si tendrá alguno que haga lo que indicas: github.com/FlowiseAI/Flowise
#33 realmente hay que diferenciar los modelos de IA de los chatbots. No es lo mismo GPT (el modelo) que chatGPT (el chatbot).
El modelo de IA es solo un fichero binario que por si solo no hace nada.
El chatbot es un software que hace de intermediario entre el usuario y uno o varios modelos de IA.
El software es el encargado de ir guardando los mensajes de la conversación (tanto la del usuario como la del modelo), y enviárselo a la IA cada vez que el usuario envía un nuevo mensaje, si no la IA no tendría ni puta idea de qué coño le has preguntado antes. Esto es a lo que se le llama "contexto".
Los LLMs al final no hacen mucho, simplemente te devuelven una respuesta en lenguaje natural en base al contexto que le hayas pasado. Por si solos no se conectan a internet, no se conectan a bases de datos, no te ponen música, no piensan, no razonan, solo complementan la frase (el contexto) que le hayas pasado.
Pongo un ejemplo: disponemos de un código en C que transforma un mensaje de texto y lo convierte en señales de radio usando el protocolo OOK que es sencillito. Esta señal es un conjunto de ceros y unos que enviado a un modulito de radio emite la señal.
Ahora le decimos a chatGPT, copilot, etc., que queremos que nos convierta ese código en código en Python. ¿Qué hará el modelo? Pues convertirte el código de C a Python. Ya está. ¿Y esto es correcto? No, Python no sirve para enviar señales de radio por que su recolector de basura bloquea la ejecución del hilo haciendo que el mensaje de radio no se envíe correctamente. Esto al modelo se la suda, como le has pedido que convierta el código, él lo convierte y tan feliz, simplemente no sabe de qué coño va el código, aunque se lo expliques.
Ahora mismo los chatbots están utilizando el patrón de supervisor y agentes. El supervisor no deja de ser una llamada a un modelo LLM al que se le ha indicado que tiene X agentes (otros modelos o el mismo con otros prompts), y que su labor es planificar y ejecutar lo que el… » ver todo el comentario
#11 Lo siento pero no, no tenemos AGIs (Inteligencia Artificial General). Seguimos teniendo IAs específicas (LLMs, generación de imágenes, generación de vídeo, solo una cosa a la vez), por mucho que algunas empresas, youtubers y streamers quieran vendernos lo contrario.
Luego están los modelos multimodales (video, audio, texto), pero es algo muy reciente, y no son AGIs.
#8 Al menos las versiones anteriores si puedes ejecutarlas en local por lo que veo en el LM Studio, pero vas a necesitar más de 600GB de RAM (si tiras de CPU) o de VRAM si lo usas con GPUs (mucho mejor que usar la CPU), como unas 8 Nvidia H100, que cada una tiene 80GB de VRAM.
Con el tiempo seguro que saldrán versiones de este modelo que requieran menos recursos, tanto creados por la misma empresa como por parte de algunos usuarios.