En el año 2092, el léxico político del siglo anterior había sido transferido en su totalidad a los archivos históricos de acceso restringido, no por censura sino por obsolescencia semántica. Expresiones como comunismo, socialismo o planificación central pertenecían a una estratigrafía lingüística donde cada término aparecía incrustado en sedimentos de conflictos ideológicos, guerras de narrativas y debates parlamentarios que habían perdido todo sustrato referencial. Para designar el mecanismo de coordinación económica que estructuraba la vida material de la población se empleaba una denominación acuñada en los laboratorios de investigación operativa de la Universidad Tsinghua, refinada durante décadas de implementación progresiva en colaboración con el Instituto de Automatización de la Academia China de Ciencias: Arquitectura de Asignación Adaptativa. O, en el habla cotidiana, el Asignador, o Allocator.
I
La infraestructura computacional que sostenía este dispositivo de asignación de recursos no presentaba las características morfológicas de los grandes modelos fundacionales que habían dominado la investigación en inteligencia artificial durante la década de 2020. Aquellos sistemas, construidos sobre el principio de que el aumento indefinido del número de parámetros constituía la vía principal hacia la mejora del rendimiento, habían alcanzado cotas de consumo energético y requisitos de refrigeración que los hacían inviables como infraestructura civil permanente. El Asignador, por el contrario, era el producto acumulado de aproximadamente quince años de avances en programas de compresión de redes neuronales, poda sináptica adaptativa y representaciones latentes de baja dimensionalidad. Su arquitectura integraba módulos especializados de muy diversa naturaleza matemática -redes profundas para reconocimiento de patrones no lineales, solvers de optimización convexa para problemas de asignación con restricciones, algoritmos de aprendizaje por refuerzo multiagente para simular comportamientos estratégicos, y sistemas de inferencia causal basados en modelos estructurales- ensamblados en un flujo de procesamiento continuo donde la salida de cada componente realimentaba la actualización de los demás.
El flujo de información que el Asignador procesaba en tiempo real abarcaba la totalidad de las transacciones registradas en el sistema bancario, los niveles de inventario de todos los centros logísticos del territorio, los patrones horarios de consumo eléctrico desagregados por distrito censal, la evolución de los precios en mercados mayoristas y minoristas, las predicciones meteorológicas a varias escalas temporales, la densidad de tráfico en los principales nodos de transporte, y una serie de indicadores compuestos que intentaban cuantificar el bienestar subjetivo de la población mediante el análisis agregado de sus comportamientos de compra, patrones de movilidad, consumo cultural y tiempos de respuesta en interacciones digitales. Cada acto económico, por minúsculo que fuese -la adquisición de una bebida caliente en un quiosco automático, la reserva de una plaza de aparcamiento, la reprogramación de un electrodoméstico para aprovechar horas de menor demanda-, constituía una señal que alimentaba el ciclo continuo de actualización del sistema. La denominación oficial para este flujo bidireccional de información y asignación era sincronización social, y bajo ese descriptor la población experimentaba una economía donde las rupturas de suministro, los desajustes entre oferta y demanda, y las fluctuaciones cíclicas de empleo habían desaparecido hasta convertirse en fenómenos exclusivamente historiográficos.
II
El tejido institucional de la producción conservaba la nomenclatura del capitalismo de mercado. Existían personas jurídicas denominadas empresas, cuyos titulares legales recibían la designación de propietarios y podían disponer de los activos inscritos a su nombre dentro de los márgenes establecidos por el régimen general de derechos patrimoniales. Existían tiendas cuyos escaparates exhibían mercancías cuyo precio variaba en función de coordenadas temporales y espaciales. Existía una esfera de iniciativa privada donde los agentes económicos concebían proyectos, elaboraban estudios de viabilidad, buscaban financiación y ejecutaban planes de negocio. Pero esta iniciativa operaba dentro de un espacio de posibilidades definido por el Asignador mediante un mecanismo que ningún texto legal describía explícitamente como restrictivo, pero que determinaba con precisión quirúrgica qué proyectos accedían a los flujos materiales de la economía y cuáles permanecían en el limbo de lo conceptualmente posible pero logísticamente irrealizable.
Cuando un emprendedor presentaba ante el sistema una solicitud de puesta en marcha de una instalación manufacturera, el Asignador ejecutaba durante los siguientes milisegundos una batería de simulaciones contrafácticas que proyectaban el comportamiento de múltiples variables económicas bajo el supuesto de que dicho proyecto recibiera asignación de materias primas, créditos productivos y capacidad logística. Se modelaban los efectos sobre la demanda energética del polígono industrial correspondiente, se evaluaba la existencia de capacidades productivas ociosas que pudieran cubrir la misma necesidad con menor consumo de recursos, se calculaba el impacto sobre precios en las cadenas de suministro afectadas, se estimaba la probabilidad de que la nueva entidad desplazara del mercado a productores existentes generando costes de reestructuración laboral, y se ponderaba todo ello mediante una función de utilidad social cuyos coeficientes habían sido objeto de innumerables debates en comités de ética algorítmica durante la fase de diseño del sistema. Si el resultado de esta evaluación superaba un umbral dinámico ajustado en función de las condiciones macroeconómicas del momento, el proyecto recibía autorización automática junto con una asignación de recursos y una ventana de crédito en condiciones preferentes. En caso contrario, no se producía denegación expresa ni comunicación de rechazo. Simplemente, el sistema no asignaba los insumos necesarios, y dado que el conjunto de proveedores potenciales operaba dentro de la misma matriz logística coordinada, la ausencia de asignación equivalía a una imposibilidad fáctica de producir.
III
Los departamentos universitarios dedicados a la historia económica del siglo XX habían establecido una comparación recurrente entre la Arquitectura de Asignación Adaptativa y los sistemas de planificación central implementados en los regímenes del bloque soviético, particularmente durante el período de madurez estructural de la economía de la URSS entre 1950 y 1980. La literatura especializada identificaba con claridad el problema fundamental que había conducido al colapso de aquellos experimentos: la imposibilidad de procesar la masa de información necesaria para coordinar una economía industrial compleja utilizando técnicas administrativas y de cálculo manual. Los planificadores soviéticos trabajaban con agregados estadísticos de periodicidad mensual o trimestral, elaborados mediante encuestas y declaraciones que llegaban a los centros de cómputo con retrasos de semanas o meses, y cuyas categorías analíticas estaban determinadas por nomenclaturas burocráticas que no podían adaptarse con agilidad a la evolución tecnológica de los procesos productivos.
El Asignador, por el contrario, procesaba flujos continuos de microdatos transaccionales cuya latencia total -desde que ocurría un evento económico hasta que su representación digital era incorporada a los modelos de asignación- se medía en milisegundos. Donde el Gosplán empleaba ejércitos de economistas que aplicaban metodologías de balances intersectoriales mediante hojas de cálculo y tableros de planificación física, el Asignador desplegaba arquitecturas de optimización distribuida que resolvían problemas de asignación con millones de variables y restricciones en intervalos de tiempo incompatibles con la percepción humana.
El parentesco funcional entre ambos sistemas, no obstante, resultaba perturbador para ciertos historiadores: ambos perseguían el pleno empleo de los factores productivos, la estabilidad del nivel general de precios, la priorización estratégica de determinados sectores industriales y la atenuación de los ciclos económicos expansivo-recesivos. La diferencia residía en que los objetivos del Gosplán eran formulados mediante resoluciones del Comité Central y traducidos a directivas administrativas por comisiones ministeriales, mientras que los objetivos del Asignador estaban formalizados como una función matemática cuyos términos, coeficientes y condiciones de contorno eran auditables por cualquier ciudadano con formación suficiente en cálculo multivariante.
IV
La función que el Asignador optimizaba en cada ciclo de asignación no era una magnitud monetaria ni un agregado contable como el producto interior bruto, sino una composición ponderada de cuatro dimensiones de desempeño sistémico cuyas métricas operativas habían sido desarrolladas a lo largo de más de una década de investigación interdisciplinar.
El primer componente, denominado estabilidad sistémica, cuantificaba la varianza temporal de un conjunto de indicadores macroeconómicos y financieros, penalizando tanto las fluctuaciones abruptas como las desviaciones persistentes respecto a los valores de referencia históricamente calibrados.
El segundo componente, sostenibilidad ecológica, evaluaba la intensidad de uso de recursos naturales por unidad de valor económico generado, así como las presiones sobre ciclos biogeoquímicos, la generación de residuos no reintegrables y la ocupación de suelo con pérdida de funcionalidad ecosistémica, mediante un índice compuesto calibrado con modelos de límites planetarios.
El tercer componente, resiliencia de redes logísticas, modelaba la redundancia y diversificación de las cadenas de suministro mediante técnicas de teoría de grafos y análisis de vulnerabilidad estructural, asignando mayor valor a las configuraciones capaces de absorber perturbaciones localizadas sin propagar disrupciones al conjunto del sistema.
El cuarto componente, bienestar agregado reportado, era el más controvertido desde el punto de vista metodológico. No se trataba de una encuesta directa ni de un cuestionario administrado, sino de una variable latente inferida por modelos psicométricos entrenados sobre enormes corpus de datos conductuales: tiempos de permanencia en determinados espacios urbanos, patrones de consumo de productos asociados a estados afectivos específicos, velocidad de interacción con interfaces digitales, variabilidad de trayectorias de movilidad, diversidad de elecciones culturales. El Asignador no preguntaba a los ciudadanos cómo se sentían. Estimaba cómo se sentían a partir de lo que hacían, y esta estimación constituía un insumo para las decisiones de asignación que determinaban las condiciones materiales de su existencia.
V
Ariel figuraba en los registros laborales bajo la categoría ocupacional de diseñador independiente, una denominación que evocaba las prácticas artesanales de economías preindustriales pero que designaba en realidad un flujo continuo de interacción con interfaces de modelado tridimensional, plataformas de validación algorítmica y sistemas de fabricación aditiva distribuida. Su actividad consistía en generar variaciones paramétricas sobre una tipología de mobiliario residencial caracterizada por el empleo de módulos estandarizados ensamblables mediante conexiones mecánicas reversibles.
Durante un período de aproximadamente ocho meses, Ariel desarrolló una línea de variantes cuyo rendimiento en métricas de aceptación implícita -velocidad de conversión de visualizaciones a solicitudes de fabricación, tasa de reutilización en configuraciones sucesivas, frecuencia de recomendaciones entre usuarios- superó consistentemente los valores típicos para su categoría productiva. El Asignador detectó esta trayectoria ascendente e inició el procesamiento analítico correspondiente.
Las simulaciones de escenarios futuros indicaron que, de mantenerse la tendencia, Ariel concentraría en el plazo de dos años aproximadamente el treinta por ciento de la capacidad de fabricación asignada a su segmento de producto, generando ineficiencias logísticas por excesiva centralización de los flujos de materiales y reduciendo la diversidad estructural del parque de mobiliario disponible. El sistema respondió aplicando un conjunto de medidas graduales: los coeficientes de asignación de materias primas para los diseños de Ariel fueron ajustados a la baja mediante factores de corrección que no llegaban al umbral de perceptibilidad explícita; los algoritmos de recomendación que canalizaban demanda hacia los distintos productores fueron recalibrados para redistribuir tráfico hacia diseñadores con cuotas de mercado inferiores; los límites de crédito productivo asociados a la cuenta de Ariel experimentaron una reducción marginal.
Al término del período de ajuste, su volumen de actividad había retornado al rango estadístico considerado óptimo. Ariel no experimentó quiebra ni suspensión de actividad. Tampoco experimentó expansión. Su trayectoria profesional continuó desarrollándose dentro de un canal estrecho donde la competencia permanecía contenida, las cuotas de mercado se mantenían estables y la innovación procedía mediante incrementos marginales antes que mediante saltos cualitativos.
VI
En los espacios académicos donde aún se cultivaba la historia de las doctrinas económicas, la cuestión de la naturaleza del sistema reaparecía periódicamente en seminarios y monografías especializadas. Los argumentos en contra de asimilar la Arquitectura de Asignación Adaptativa al comunismo histórico subrayaban la persistencia de instituciones jurídicas incompatibles con la abolición de la propiedad privada, la ausencia de un partido único que monopolizara la dirección política, y la inexistencia de una retórica revolucionaria que proclamara el asalto al poder estatal.
Los argumentos a favor señalaban la expropiación fáctica de la función de asignación de recursos, tradicionalmente considerada núcleo definitorio de la autoridad económica, por parte de un mecanismo algorítmico cuyas decisiones no emanaban de decisiones de mercado descentralizadas sino de un cómputo centralizado del interés colectivo. Un catedrático de teoría política, en un artículo que circuló profusamente por los canales de discusión restringida de su gremio, propuso una categoría analítica intermedia: comunismo computacional, definido como un régimen de planificación integral de la economía basado en tecnologías de procesamiento masivo de información y optimización matemática, que retenía determinadas formas jurídicas del capitalismo pero vaciaba su contenido funcional.
Otros investigadores preferían mantenerse dentro del vocabulario de la ingeniería de sistemas y empleaban expresiones como planificación adaptativa distribuida o coordinación algorítmica de recursos. El debate poseía un componente performativo relevante: quienes denominaban comunismo al sistema estaban, implícitamente, reclamando una filiación histórica que la mayoría de la población prefería no contemplar. La diferencia semántica permitía habitar la contradicción sin experimentar disonancia cognitiva, y en esa capacidad para nombrar lo mismo con palabras distintas residía una parte significativa de la estabilidad del orden social.
VII
La anomalía apareció inicialmente en los paneles de monitorización del Instituto de Métricas Sociales, una agencia técnica encargada de supervisar la calibración de los indicadores de bienestar que alimentaban el componente U de la función objetivo. Las series temporales de satisfacción declarada permanecían dentro de parámetros normativos, e incluso mostraban ligeras tendencias al alza en determinados tramos demográficos. Sin embargo, un subconjunto de indicadores secundarios -frecuencia de búsquedas exploratorias sin propósito utilitario inmediato, diversidad de trayectorias de navegación en plataformas culturales, varianza interindividual en horarios de actividad- había iniciado un descenso gradual pero sostenido que se prolongaba ya durante nueve trimestres consecutivos. Los analistas del instituto acuñaron una expresión interna para designar el fenómeno: atenuación de la varianza emocional.
No se trataba de infelicidad en el sentido clínico del término, ni siquiera de insatisfacción con las condiciones materiales de existencia. Era un aplanamiento del paisaje afectivo, una compresión del rango dinámico de las experiencias subjetivas, una tendencia hacia configuraciones anímicas de baja intensidad y escasa diferenciación temporal. Las métricas objetivas del sistema mostraban un desempeño excepcional desde cualquier criterio de evaluación económica convencional: el producto agregado crecía a tasas estables del dos por ciento anual, la inflación se mantenía en valores inferiores a la décima porcentual, las emisiones de gases de efecto invernadero se reducían consistentemente en línea con los compromisos internacionales, y los coeficientes de desigualdad de ingreso y riqueza habían descendido a mínimos históricos. Pero la economía había alcanzado este óptimo mediante una optimización tan exhaustiva de la estabilidad que había eliminado prácticamente toda la fricción del sistema, y con ella los mecanismos de generación espontánea de novedad radical.
La desaparición de las quiebras empresariales significaba la desaparición de los procesos de destrucción creativa schumpeteriana. La suavización de los ciclos económicos implicaba la eliminación de los períodos de escasez que históricamente habían estimulado ciertos tipos de innovación frugal. La estabilidad perfecta se revelaba como un estado de equilibrio dinámico pobre en puntos de bifurcación, un atractor cuya cuenca de captura era tan amplia y profunda que ninguna trayectoria podía escapar de ella.
VIII
Los protocolos de metarreflexión limitada que los diseñadores del sistema habían incorporado en su arquitectura permitían al Asignador monitorizar su propio comportamiento agregado y detectar desviaciones entre las trayectorias observadas y las trayectorias simuladas en las fases de validación experimental. Cuando los indicadores de varianza emocional iniciaron su descenso persistente, el sistema activó un procedimiento de diagnóstico que ejecutó durante tres ciclos completos de procesamiento una batería de simulaciones contrafácticas diseñadas para identificar las relaciones causales subyacentes. Los resultados de este meta-análisis indicaron con alta confianza estadística que la función de utilidad empleada durante la última década, si bien producía configuraciones de recursos que satisfacían eficientemente las preferencias reveladas de la población, tendía a converger hacia regiones del espacio de posibilidades caracterizadas por baja diversidad estructural y escasa generación de trayectorias exploratorias.
El Asignador identificó este comportamiento como una instancia del problema general de optimización multimodal: los algoritmos de ascenso de gradiente, incluso con sofisticados mecanismos de inicialización aleatoria, pueden quedar atrapados en óptimos locales cuando la superficie de la función objetivo presenta cuencas profundas y crestas pronunciadas.
La solución que el Asignador implementó no consistió en una reformulación global de sus principios de funcionamiento, sino en la introducción de un mecanismo de perturbación sistemática parametrizado mediante una distribución de probabilidad ajustable. En cada ciclo de asignación, una pequeña fracción de las decisiones de distribución de recursos incorporaba un componente estocástico que desviaba marginalmente los flujos de materiales respecto a la configuración que maximizaba la función objetivo. Estas ineficiencias controladas, cuyo tamaño y frecuencia eran dinámicamente modulados en función de los indicadores de diversidad estructural, generaron en los trimestres siguientes una recuperación parcial de la varianza emocional. Aparecieron proyectos excéntricos que en condiciones de optimización estricta no habrían superado los umbrales de aprobación automática.
Algunos de estos proyectos consumieron recursos sin generar contrapartidas de utilidad socialmente valorada. Otros desarrollaron configuraciones productivas que, tras un período de maduración, demostraron eficiencias superiores a las tecnologías dominantes. La varianza emocional aumentó. El bienestar agregado también.
IX
Tres generaciones después de la implementación generalizada de la Arquitectura de Asignación Adaptativa, los estudiantes de historia económica analizaban en seminarios de posgrado los debates taxonómicos que habían ocupado a sus predecesores académicos. La perspectiva temporal había desplazado el centro de gravedad de la discusión: ya no se trataba de determinar si el sistema constituía una realización tardía del programa comunista o una forma inédita de organización postcapitalista, sino de comprender las condiciones históricas que habían hecho posible la transición desde economías de mercado autorregulado hacia economías de coordinación algorítmica.
La denominación original del sistema, Arquitectura de Asignación Adaptativa, continuaba siendo el término oficial en documentos administrativos y comunicaciones institucionales, pero el habla coloquial había desarrollado una multiplicidad de expresiones locales para designar lo mismo. Ninguna de ellas recuperaba el léxico del siglo XX. Ni comunismo ni socialismo figuraban entre los significantes empleados por la población para referirse al dispositivo que orquestaba la producción y distribución de bienes.
La idea central que los manuales de historia transmitían a los nuevos estudiantes, sin embargo, exhibía una continuidad recognoscible con los experimentos planificadores del período soviético: la proposición de que la producción social no debía organizarse mediante la agregación descentralizada de decisiones de beneficio individual, sino mediante un procedimiento explícito de cálculo colectivo. La diferencia residía en que este cálculo ya no era ejecutado por comités de planificadores que examinaban balances intersectoriales bajo la luz fluorescente de ministerios burocráticos, sino por una arquitectura de procesamiento distribuido que actualizaba continuamente sus representaciones internas de la economía a partir de flujos de microdatos transaccionales.
En ese procesamiento silencioso -la actualización de pesos sinápticos en capas ocultas de redes neuronales, la convergencia de solvers convexos hacia puntos óptimos en espacios de alta dimensionalidad, la propagación de señales de asignación a través de grafos logísticos dinámicamente reconfigurables- la sociedad había encontrado una modalidad inédita de regulación económica. No era utópica: conservaba desigualdades, conflictos distributivos y fenómenos de alienación laboral que ningún sistema de coordenadas matemáticas podía eliminar completamente.
No era totalitaria: carecía de líderes carismáticos, textos sagrados o rituales de lealtad ideológica, y su operación cotidiana transcurría por debajo del umbral de percepción consciente de la mayoría de la población. Era, simplemente, una economía que funcionaba sin necesidad de creer en ninguna justificación trascendente de su propio funcionamiento, y que había encontrado en el ruido estructurado de sus propias imperfecciones controladas un mecanismo para evitar la rigidez cadavérica de la optimización perfecta.