¿Dónde existe el número uno? Esta pregunta, que parece trivial, revela una fisura fundamental en nuestro entendimiento de las matemáticas y la realidad física.
Imagina que sostienes una manzana en tu mano. Tienes "una" manzana, dirías. Pero si miramos más de cerca, la situación se vuelve... extraña. Esa manzana contiene aproximadamente diez elevado a veinticinco átomos. Cada uno de esos átomos tiene electrones en superposición cuántica, existiendo simultáneamente en múltiples estados hasta que son medidos. Los átomos en la superficie de la manzana se intercambian constantemente con el aire circundante: moléculas de agua entran y salen, átomos de oxígeno se desprenden, nuevos compuestos se adhieren. En cada nanosegundo que pasa, la composición material de lo que llamas "la manzana" está cambiando.
Entonces, ¿en qué momento preciso este flujo cuántico se convierte en "uno"? La respuesta incómoda es que ocurre cuando tú decides trazar una frontera arbitraria. Defines que cierta configuración de campos cuánticos dentro de un volumen aproximado constituye "la manzana", pero esta definición requiere que ignores información crucial: los límites de ese objeto son difusos, su identidad a través del tiempo es una ficción conveniente, y su aparente "unidad" solo existe si decides ignorar billones de subestructuras internas que podrían contarse por separado.
El número "uno" no está en la física. Está en tu acto cognitivo de categorización, en tu decisión de agrupar ciertos fenómenos y llamarlos "una cosa".
La situación se vuelve aún más problemática cuando pensamos en dos manzanas. Físicamente, ¿qué justifica tratarlas como equivalentes? Cada manzana es cuánticamente única, con diferentes números de átomos, diferentes estados energéticos, diferentes historias causales. A nivel fundamental, no existen dos cosas idénticas en el universo. El concepto "dos" requiere una operación cognitiva violenta: ignorar todas las diferencias reales entre dos sistemas físicos radicalmente distintos y declarar mediante un acto de voluntad que son "la misma cosa" repetida.
Pero hay más. ¿Dónde termina exactamente una manzana y empieza la otra? Si están tocándose, comparten átomos en la superficie de contacto. Si están separadas por un centímetro, hay aire entre ellas, pero ese aire también está hecho de átomos. ¿A qué distancia precisa dejan de ser "dos objetos cercanos" y se convierten en "un sistema de dos partes"? El universo físico no provee una respuesta. Solo hay campos cuánticos distribuidos en el espacio, y eres tú quien decide cómo segmentarlos.
Esta dificultad es una versión de la antigua paradoja de Sorites, el problema del montón de arena. Si tienes un montón de arena y quitas granos uno a uno, ¿en qué grano preciso deja de ser un montón? Nunca hay una respuesta física, solo convenciones lingüísticas. Aplicado a los números, la pregunta se vuelve: si agregas átomos uno por uno a una estructura molecular, ¿en qué átomo específico pasa de ser "cero manzanas" a "una manzana"? O si fusionas dos objetos gradualmente, átomo por átomo, ¿en qué momento exacto pasan de ser "dos" a "uno"?
El universo físico no contiene umbrales discretos donde los números mágicamente "aparecen". A nivel fundamental, solo hay campos cuánticos continuos, probabilidades, superposiciones. Los números son proyecciones que los observadores conscientes imponemos sobre este sustrato continuo y difuso. Son herramientas cognitivas para navegar el mundo a escala humana, no propiedades intrínsecas de la realidad.
Las implicaciones de esto son profundas. Si los números no son propiedades físicas sino constructos cognitivos, entonces las matemáticas no describen la realidad en un sentido platónico. No estamos descubriendo verdades eternas inscritas en el tejido del cosmos. Estamos construyendo sistemas simbólicos útiles para modelar patrones que emergen en cierta escala de observación. La aritmética básica, ese "uno más uno igual a dos" que nos parece la verdad más sólida del universo, no es un descubrimiento sobre cómo funciona la realidad, sino una regla sobre cómo hemos decidido manipular símbolos. Y toda la matemática superior, desde la geometría euclidiana hasta el cálculo infinitesimal y la teoría de conjuntos de Cantor, está construida sobre estos cimientos que carecen de referente físico directo.
Esto no significa que las matemáticas sean inútiles o falsas. Al contrario, funcionan extraordinariamente bien como instrumentos. Un martillo tampoco existe a nivel cuántico, solo hay campos fermiónicos organizados de cierta manera, pero eso no impide que sea excelente para clavar clavos. Los números son herramientas conceptuales que operan en el dominio mesoscópico donde vivimos los seres humanos, ese estrecho rango entre lo cuántico y lo cosmológico donde las categorías discretas parecen naturales.
Pero cuando preguntamos "¿cuántas manzanas hay?", debemos reconocer que esta pregunta no tiene respuesta en la física fundamental. Solo tiene respuesta en el espacio cognitivo humano, en ese territorio compartido donde hemos acordado colectivamente qué cuenta como "uno" y qué cuenta como "dos", dónde trazamos las fronteras entre objetos, qué diferencias ignoramos y cuáles consideramos relevantes.
El número no está en el mundo. Está en la mirada que proyectamos sobre él.
El economista Luis Garicano, uno de los hombres fuertes del extinto partido Ciudadanos, ha presentado junto a otros dos autores un paper en el que analizan las causas del estancamiento económico europeo y proponen una serie de medidas no ideológicas -según ellos- para recuperar la senda del crecimiento.
El artículo se puede leer aquí: constitutionofinnovation.eu/
La tesis central del artículo es clara: para mantener el nivel de bienestar al que estamos acostumbrados en Europa es necesario seguir creciendo. Desde 1995, la Unión Europea ha reducido su ritmo de crecimiento de forma constante, mientras que Estados Unidos se ha mantenido en torno al 2 % anual y China nos está adelantando.
Según los autores, las causas de este estancamiento son una sobrerregulación y una defensa débil del mercado único europeo. Cada país —e incluso cada región— mantiene sus propias normativas, además de las regulaciones comunitarias. Esto hace que productos que se pueden vender en Lisboa no se puedan comercializar en Berlín, lo que socava el libre comercio.
Dan algunos datos interesantes. Citan a Mario Draghi: en los últimos 50 años no ha surgido ninguna empresa europea valorada en más de 100.000 millones de dólares, lo que evidencia que el éxito industrial de los años 50 y 60 no se ha trasladado al mundo digital. Además, esto va muy en línea con el análisis de Forbes en su artículo “Quién heredará España”, donde apuntan que los multimillonarios españoles son en su mayoría personas de edad avanzada que han hecho fortuna en industrias tradicionales, con poca innovación y poco futuro. Ver en Forbes

Qué proponen
La propuesta no es especialmente novedosa: desregular y reforzar el cumplimiento del mercado único. Según los autores, la UE está atrapada en una burocracia casi kafkiana, legislando por legislar (desde derechos de los animales hasta regulaciones climáticas), cuando su prioridad debería ser garantizar la libre circulación de bienes y servicios.
Entre sus recomendaciones destacan:
Enfatizan que la UE debe priorizar claramente la prosperidad económica y la innovación, en lugar de dispersarse en demasiados objetivos no económicos.
Conclusión
No soy economista, por lo que no tengo la formación para hacer una crítica técnica exhaustiva, pero el sesgo liberal del paper parece evidente:
En resumen, el paper aporta datos e ideas interesantes, pero su visión es parcial: se centra casi exclusivamente en desregulación y libre comercio. Europa necesita más que desregular: necesita un modelo de innovación integral, con políticas públicas ambiciosas, inversión en talento y un ecosistema que conecte ciencia, empresa y capital.
Existen distribuciones accesibles para usuarios noveles que simplemente quieran navegar por Internet, ver vídeos en YouTube y TikTok, y escribir en redes sociales. La configuración del sistema operativo y del software libre no es tan artesanal como lo era hace veinte años.
Pero cuando ves cómo el enemigo hace aguas con las actualizaciones, el puñetazo de Mike Tyson desbarata tus planes. El sistema no quiere arrancar, el prompt te dice que estás en modo de emergencia y te da una serie de instrucciones: que teclees unos comandos para ver los logs del desmadre, que introduzcas el login, que escribas la contraseña de root para mantenimiento o que pulses Control + D para continuar.
Y tiene gracia lo que me ha ocurrido, porque uno de los problemas existenciales a los que tengo que enfrentarme después de muchos años es mantener mi sistema operativo Debian no tan actualizado. ¿Por qué? Porque la AppImage de las últimas versiones de Cinelerra no funciona en la última versión de Debian. He probado a instalar una serie de paquetes novedosos y extraños para mí, y ni con esas. Pero lo interesante es la historia que cuenta el foro del propio editor de vídeo: cinelerra-gg.org/forum/everything-else/appimage-wont-start/
Las librerías de las que depende la AppImage de Cinelerra son muy antiguas, por no decir obsoletas. Pero un usuario desvela algo inquietante: “Esto es muy malo. MatN ayudó a establecer la AppImage porque perdimos a nuestro principal programador, que usaba y creaba paquetes de instalación para diversas distros”. Pude comprobar esta realidad visitando páginas de descarga oficiales de Cinelerra y ver que había enlaces rotos.
Estoy acostumbrado a usar Cinelerra como editor de vídeo no lineal, descargándome la AppImage. “¿Pero por qué no pruebas otro?”, me dirán. En el fondo no son muy diferentes, pero nada de lo que hay en edición de vídeo para GNU/Linux me llama la atención, y tardaría semanas en adaptarme.
A los que me hablen de las bondades de DaVinci Resolve, tengo que decirles que, para conseguir abrir ese software sin que se cerrase de inmediato, tuve que desinstalar el driver nativo e instalar el driver propietario de la tarjeta gráfica NVIDIA (y no vale cualquier tarjeta: con la antigua que tenía no funcionaba ni funcionaría nunca). Pero hay otros detalles que me echan para atrás de DaVinci Resolve, como tener que convertir los vídeos en formato .mp4 al formato .mov (el de Apple; no, no estoy de broma. Busca por Internet y lo verás).
En definitiva, muchos usuarios noveles en GNU/Linux pueden verse en una misión épica cuando investigan la situación a fondo. Me asaltan una serie de preguntas: ¿Salvo mis datos e instalo Debian 12 desde cero para mantener mi fidelidad a Cinelerra, esperando que el forero contacte con MatN y le ayude con las Appimage? ¿Me pongo ya a romperme la cabeza con este tipo de problemas, que lleva su tiempo en resolverse si no fuera porque el teclado no responde? ¿Debo andar con mi pendrive con Debian Live instalado y sumergirme en las profundidades de mi sistema operativo que no quiere arrancar? ¿Formateo la partición donde va el sistema operativo con Debian 13?

Ya sabéis que yo suelo llamar la cuenta de la pirámide a esa en la que mucho por mucho es igual a muchísimo, sin que nadie se tome la menor molestia es cuantificar el tema del que se habla. Hay montones de casos, todos sospechosos, de esa extraña aritmética, y no voy a volver a ellos, porque se desvía el asunto, y de lo que se trata es de hablar de inteligencia artificial y empleo.
El debate, de momento, está en qué parte del empleo eliminará el desarrollo de la inteligencia artificial, y tengo la impresión de que los argumentos empleados acaban enfrentando a maximalistas que hablan de todo o nada, sin pararse a pensar cómo funcionan los procesos de sustitución.
En el momento actual, o hasta hace seis meses, la IA eliminaba algunos empleos menos de los que creaba. Alimentar esa tecnología, desplegarla y llevar a producción, necesita más mano de obra de la que sustituye. Más o menos hasta marzo, por lo que he leído. Sobre ese momento, la cosa se igualó, y en estos momentos, medio año después, elimina unos pocos empleos más de los que crea. Llegados a este punto, es importante hablar del DONDE, porque el caso es que los lugares donde crea los empleos y los lugares donde los destruye, no son necesariamente los mismos, ni a nivel geográfico ni a nivel de escalas de cualificación. En estos momentos se está destruyendo empleo en la baja cualificación y se crean en la alta.
A medida que madure el conocimiento de las aplicaciones IA y su despliegue, aumentará la destrucción de empleo y se reducirá la creación. Este proceso ya se ha iniciado y llevará aún algún tiempo..
Por lo tanto, la cuestión será gradual, y se habla de que la IA puede destruir, en neto, alrededor de un 1% del empleo anualmente, con un techo difícil de precisar.
Un 1% no parece mucho, pero en España supone alrededor de 230.000 personas al año. En cuatro años, eso vendría a ser casi un millón de parados. De todas maneras, la cifra me parece demasiado alta, aunque se alegue que se incluye en ella a los desempleados indirectos, o sea, a los que perderán su empleo al desaparecer la demanda de diversos bienes y servicios de los desempleados directos.
Un 1% anual no es el Apocalipsis en directo, pero muy bien podría suponer un desastre en diferido. La ventaja es que nos da tiempo a adaptarnos, aunque no mucho. La desventaja es que le echaremos la culpa a cualquier cosa, y se radicalizará aún más la vida diaria. Todo un reto.
menéame