#1 Pues sí. Creí que era un error del artículo pero no. Según la web oficial, los requisitos mínimos:
"3 GB RAM
30 GB of Storage Space (HDD/SSD)
Stable internet connection"
Edti #42. #37. Me he confundido tanto de hilo que te he enlazado este mismo hilo.
Bueno, para intentar arreglarlo te comento que he mirado las especificaciones mínimas de este "CachiOS" y no es ni para 386, ni para 486, ni para ningúno de los Pentium. Es para PC con al menos 3 Gigas de RAM y con procesadores de algo más de una década. Una Linux Mint con un desktop ligero XFCE cumple igualmente con ese tipo de PCs : linuxmint.com/edition.php?id=323
#14 no, hay sujetos q no son humanos pq han renunciado a tener sus derechos humanos, en el momento q se han hecho pistoleros de ETA, pandilleros de la M13, narcos, camellos, han violado a una mujer o han abusado de un niño. Quien vende su humanidad no espere q les guardemos sus derechos, los han perdido.
#11 yo creo en los derechos de los humanos y, si los rojos no tienen delitos de sangre o bomba, reinsertarlos en la sociedad enseñándole bolsa y finanzas, y educación empresarial.
«No hay derecho a lo que está ocurriendo. Hay un maltrato institucional absoluto por parte de las administraciones a los ciudadanos y esto tiene que cambiar»
Te agradezco el post y el intento, pero no me convence.
Precisamente porque cuanto más la he usado, más me he dado cuenta donde y como se rompe. Con modelos locales se engancha en bucle frecuentemente. Las técnicas del chain of thought y eso son muy bonitas sí pero se le va la cabeza y a la que hay una exigencia implicita de razonamiento falla estrepitosamente. Esta es la base: falla muy gravemente al necesitar pensamiento. Es excelente generando tremendo lorem ipsum con colorines, y eso tiene su uso, pero no confiaría a un LLM nada que tuviera impacto.
El LLM no conoce el mundo. No tiene un modelo interno de él. No tiene una imaginación. Por eso no es una IA, le falta la I. Puedes buscar ser literal si quieres en el sentido de qué signifique "predecir" o "simple predictor estadístico" si te quieres perder en tecnicismos. Pero "predictor de texto" en el sentido de que pretende averiguar cual es el token que viene a continuación en base al texto anterior, sí, es un predictor de texto. Tal cual.
Es bastante obvio para mi que las distintas plataformas han intentado añadir con el tiempo post filtros para añadir layers de censura, evitar las repeticiones, lo que sea: pero el problema de fondo sigue ahí. Si puede inferrir del contexto algo parecido a lo que continuará que pueda ser correcto, a veces lo hace bien. Dale algo novel y no sabe.
#1 En realidad, y te lo dice alguien que ya se cansó de discutir del tema con el autor del meneo, lo que hace es decir lo que lleva diciendo tiempo adornándolo de palabras bonitas y algún concepto que tengas que buscar en google para que parezca que es más de lo que es.
La realidad es, como suele ser habitual, más tozuda.
Los que decimos que la IA no razona, ni parecido, a lo que hace el ser humano es porque, a ver que te cuente: la IA no razona.
¿Que decir que la IA no es más que una sucesión de resultados estadísticos es "reduccionista"? Según lo quieras ver, pero en última instancia es lo que es, por más complejo que lo pongamos.
Es decir, no deja de ser un proceso estadístico con los condicionantes que le quieras poner y con toda la capacidad de cálculo que le quieras poner, pero es estadística al fin y al cabo. Y quien escribe esto lleva unos cuantos años trabajando de informático y en su momento estudió algo de redes neuronales que, por mucho que haya cambiado y evolucionado desde entonces, la base es la misma. No quiero con esto ni mucho menos arrogarme el título de experto, nada más lejos, simplemente quiero decir que no soy ningún ludita enemigo de la tecnología.
La demostración inequívoca de que la IA NO razona es la existencia de esos resultados que eufemísticamente llamamos "alucinaciones", porque decir "cagadas épicas que ni un niño de primaria haría borracho de pepsi" quedaba largo y no tan resultón.
2022: 301.406 nuevas y 299.680 cerradas (+4,73 empresas netas cada día).
2023: 319.085 nuevas y 273.451 cerradas (+125 empresas netas cada día).
2024: tenemos el total de mercantiles, que suponen un 1,5% más que en 2023.
¿Que más cojones quieres?
"3 GB RAM
30 GB of Storage Space (HDD/SSD)
Stable internet connection"
wiki.cachyos.org/installation/installation_prepare/
Si les enseño lo que me consume Gentoo en el pentium (que por cierto he de actualizar) se les sale el corazon...
Bueno, para intentar arreglarlo te comento que he mirado las especificaciones mínimas de este "CachiOS" y no es ni para 386, ni para 486, ni para ningúno de los Pentium. Es para PC con al menos 3 Gigas de RAM y con procesadores de algo más de una década. Una Linux Mint con un desktop ligero XFCE cumple igualmente con ese tipo de PCs : linuxmint.com/edition.php?id=323
www.meneame.net/story/trump-lanza-advertencia-venezuela-vamos-empezar-
Precisamente porque cuanto más la he usado, más me he dado cuenta donde y como se rompe. Con modelos locales se engancha en bucle frecuentemente. Las técnicas del chain of thought y eso son muy bonitas sí pero se le va la cabeza y a la que hay una exigencia implicita de razonamiento falla estrepitosamente. Esta es la base: falla muy gravemente al necesitar pensamiento. Es excelente generando tremendo lorem ipsum con colorines, y eso tiene su uso, pero no confiaría a un LLM nada que tuviera impacto.
El LLM no conoce el mundo. No tiene un modelo interno de él. No tiene una imaginación. Por eso no es una IA, le falta la I. Puedes buscar ser literal si quieres en el sentido de qué signifique "predecir" o "simple predictor estadístico" si te quieres perder en tecnicismos. Pero "predictor de texto" en el sentido de que pretende averiguar cual es el token que viene a continuación en base al texto anterior, sí, es un predictor de texto. Tal cual.
Es bastante obvio para mi que las distintas plataformas han intentado añadir con el tiempo post filtros para añadir layers de censura, evitar las repeticiones, lo que sea: pero el problema de fondo sigue ahí. Si puede inferrir del contexto algo parecido a lo que continuará que pueda ser correcto, a veces lo hace bien. Dale algo novel y no sabe.
La realidad es, como suele ser habitual, más tozuda.
Los que decimos que la IA no razona, ni parecido, a lo que hace el ser humano es porque, a ver que te cuente: la IA no razona.
¿Que decir que la IA no es más que una sucesión de resultados estadísticos es "reduccionista"? Según lo quieras ver, pero en última instancia es lo que es, por más complejo que lo pongamos.
Es decir, no deja de ser un proceso estadístico con los condicionantes que le quieras poner y con toda la capacidad de cálculo que le quieras poner, pero es estadística al fin y al cabo. Y quien escribe esto lleva unos cuantos años trabajando de informático y en su momento estudió algo de redes neuronales que, por mucho que haya cambiado y evolucionado desde entonces, la base es la misma. No quiero con esto ni mucho menos arrogarme el título de experto, nada más lejos, simplemente quiero decir que no soy ningún ludita enemigo de la tecnología.
La demostración inequívoca de que la IA NO razona es la existencia de esos resultados que eufemísticamente llamamos "alucinaciones", porque decir "cagadas épicas que ni un niño de primaria haría borracho de pepsi" quedaba largo y no tan resultón.
En fin.
Que no vais a heredar la empresa!!
Qué mal Milei... No, Charo???
Bueno pues aquí van datos de España...
La que va como un cohete...
La del gobierno progresista...
www.eldiariodemadrid.es/articulo/empresas/destruccion-masiva-espana-pi
2022: 301.406 nuevas y 299.680 cerradas (+4,73 empresas netas cada día).
2023: 319.085 nuevas y 273.451 cerradas (+125 empresas netas cada día).
2024: tenemos el total de mercantiles, que suponen un 1,5% más que en 2023.
Me da que has elegido una mala comparación.