He presentado CTNet: una arquitectura donde el cómputo ocurre como evolución de un estado persistente [D]

Reddit r/MachineLearning Papers

Summary

CTNet introduces a novel neural architecture where computation is framed as the evolution of a persistent state rather than successive rewrites, incorporating re-entrant memory, multi-scale coherence, and projective output.

Acabo de publicar una presentación de CTNet y quería compartirla aquí para recibir feedback serio. CTNet propone una arquitectura en la que el cálculo no se organiza como simple reescritura sucesiva de representaciones, sino como transición gobernada de un estado persistente. Dentro de esa dinámica entran memoria reentrante, régimen de cómputo, admisibilidad, coherencia multiescala, cartas locales y salida proyectiva. La intuición central es esta: la salida no agota el proceso; emerge como una proyección de un fondo computacional más rico. Ahora mismo estoy presentando la arquitectura, su formalización y su toy model canónico. El objetivo de esta publicación no es vender un sistema cerrado, sino exponer una propuesta arquitectónica con ambición real y abrir conversación con gente que piense en arquitectura, teoría del cómputo, DL, memoria, routing, razonamiento, orden y sistemas. He dejado la publicación de LinkedIn aquí: [Publicación Linkdln](https://www.linkedin.com/posts/gin%C3%A9s-esp%C3%ADn-flores-2402331b3_ctnet-aiarchitecture-deeplearning-share-7452862756250177536-2hXG?utm_source=share&utm_medium=member_desktop&rcm=ACoAADGwkJABUssI4KW45tEvYW6z7QaVL_IfxbA) Me interesa especialmente feedback de gente que pueda atacar la idea en serio: — consistencia arquitectónica — implicaciones computacionales — relación con transformers, SSMs, MoE, memoria y modelos recurrentes — límites teóricos o prácticos — posibles direcciones de desarrollo No busco aplauso fácil. Busco crítica fuerte y gente potente.
Original Article

Similar Articles

@appliedcompute: https://x.com/appliedcompute/status/2052826576723841292

X AI KOLs Timeline

Applied Compute introduces ACL-Wiki, a continual learning memory system built on their Context Engine that logs coding agent interactions from Cursor, Claude Code, and Codex to build an improving Contextbase, roughly doubling the Critical Memory Rate over two weeks. The system uses a Remember-Refine-Retrieve pipeline exposed via MCP server to give coding agents institutional memory that improves with use.

Cognifold: Always-On Proactive Memory via Cognitive Folding

arXiv cs.AI

Introduces Cognifold, a brain-inspired always-on proactive memory for LLM agents that continuously organizes fragmented event streams into self-emerging cognitive structures via graph-topology self-organization, extending Complementary Learning Systems theory with a prefrontal intent layer.

The Computer is Personal (4 minute read)

TLDR AI

Perplexity launched 'Personal Computer,' an AI platform that replaces traditional OS models with probabilistic goal completion, using deep web research to autonomously execute multi-step workflows and eliminate software fragmentation.