Un equipo de investigadores de la Universidad Nacional de Singapur desarrolló una innovadora arquitectura de computación en memoria (CIM) que combina procesamiento y almacenamiento de datos en un mismo espacio físico, un avance que podría transformar el futuro de la inteligencia artificial. Según informó el portal especializado Tech Xplore, el sistema permite ejecutar modelos de IA a gran velocidad mientras reduce el consumo energético a menos de la mitad en comparación con los métodos tradicionales.
La innovación, que utiliza una matriz de memristores de diseleniuro de hafnio, surge como respuesta a la demanda creciente de eficiencia en los procesos de IA: el entrenamiento de un gran modelo de lenguaje como GPT-3 puede requerir más de USD 10 millones y más de 700.000 litros de agua.
Esta característica cobra relevancia ante el cuello de botella que impone la arquitectura tradicional de los ordenadores. El profesor Ang Kah Wee, del Departamento de Ingeniería Eléctrica y Computación de la Universidad Nacional de Singapur, explicó que la mayor parte del tiempo y del consumo energético en las tareas de IA no proviene del procesamiento en sí, sino del movimiento de datos entre la memoria y el procesador.
El sistema desarrollado, presentado en la revista científica Nature Communications, elimina esa transferencia: los datos se almacenan y procesan en un mismo lugar mediante memristores, dispositivos que, a diferencia de los transistores convencionales, mantienen el estado de su resistencia sin energía y funcionan de forma análoga a las sinapsis cerebrales.

La arquitectura está basada en una matriz de 1.024 memristores (matriz 32×32) de diseleniuro de hafnio, un material bidimensional que requiere poca energía y permite cambios de estado extremadamente rápidos. Cada memristor está acompañado por un selector de silicio que actúa como controlador de tráfico para evitar interferencias eléctricas indeseadas conocidas como corriente parásita. Este diseño uno a uno facilita el control de cada unidad, permite una alta densidad de integración y garantiza la compatibilidad con los procesos estándar de fabricación de semiconductores.
El equipo logró ensamblar la delicada capa activa de los memristores directamente sobre sustratos de silicio sin daño, lo que representa una ventaja fundamental para la eventual adopción industrial. La integración de circuitos periféricos elimina la necesidad de conversores analógico-digitales convencionales, sustituidos por sensores de dominio temporal que interpretan las señales eléctricas a partir del tiempo necesario para que ocurran cambios de voltaje. Este método reduce significativamente el tamaño y el gasto energético de los componentes.
En pruebas realizadas con una red neuronal convolucional simple para reconocimiento de patrones, el sistema alcanzó una precisión del 97,5%, prácticamente igual a la de sistemas digitales tradicionales, pero con un consumo energético sensiblemente inferior. Los memristores demostraron capacidad de conmutación —la velocidad a la que pueden encenderse y apagarse para procesar datos— en nanosegundos y soportaron más de 26.000 ciclos de programación sin degradación visible.
El resultado posiciona este sistema como una alternativa viable para aplicaciones en edge computing —el procesamiento de datos directamente en el dispositivo, sin depender de la nube—, sistemas autónomos y entornos donde la energía es un recurso crítico y la latencia debe minimizarse.

Ang señaló que el diseño propuesto es compatible con silicio, lo que supone que no requiere nuevos procesos de fabricación ni materiales exóticos. Esto favorece una posible transición desde la investigación hacia la producción en masa para impulsar el hardware especializado en IA.
La combinación de conmutación rápida, alta durabilidad y bajo voltaje vuelve al sistema idóneo para aplicaciones de computación neuromórfica. Este campo busca imitar el funcionamiento del cerebro humano, y la integración directa de funciones de activación —elementos clave de las redes neuronales— en el hardware elimina etapas de procesamiento adicionales, lo que mejora la eficiencia general del sistema.
Actualmente, el grupo explora el escalado de la matriz y la gestión de conjuntos de datos de mayor complejidad, con el objetivo de acercar estas capacidades a usos en tiempo real.