Когда AI врёт — критическое мышление
Распознаём галлюцинации и строим процесс верификации.
Hook
AI может уверенно говорить неправду. Опасность не в ошибке, а в уверенном тоне.
Concept
Термины: list, dictionary, loop, function — пишем по-английски, объясняем по-русски.
Типовые риски:
- выдуманные API/факты;
- неверные ссылки;
- пропуск ограничений задачи.
Противоядие:
- проверяем источники;
- запускаем код;
- сверяем с документацией;
- задаём уточняющие вопросы.
Практика
Задание 1: укажи действие при сомнительном ответе AI.
action = "проверить по документации"
Заполни пропуски в коде в своей тетради/редакторе. Ключевые ответы: проверить.
Задание 2: допиши метод защиты от фейкового API.
source = "официальная дока"
Проверь себя: официальная дока.
Сборка: мини-проект
Собери личный «протокол верификации AI» из 6 пунктов и примени к одному примеру ответа модели.
Комбинируем текущую тему с предыдущими навыками.
Reflection
Ты прокачал иммунитет к галлюцинациям AI и научился отделять уверенный текст от проверенного знания.