«Личный опыт становится тем, что позволяет получать более качественный результат от модели. У модели этого опыта нет. У нее есть общий, генерализованный опыт и представление о том, что такое хорошо.»
«Запреты — это очень сильный инструмент для работы с моделями. Они очень хорошо фреймят и ChatGPT, и Claude код. Важно не перегибать, потому что можно отбить всю креативность.»
«Нам нужно знать, как выглядит хорошо. Если мы не знаем, то нам нужно спросить о том, как это хорошо выглядит, либо поискать, либо посоветоваться с кем-то из людей, может быть, с кем-то из более умных моделей или провести дип-ресерч.»
Ведущий:
Юра Агеев, основатель ProductSense
Конференция PeopleSense, 4–5 июня 2026 года, Москва
Сайт конференции: https://vk.cc/cWmki0
Подписывайтесь на канал анонсов подкаста: https://t.me/mspodcast
О чем говорим:
— Введение
— Cценарии применения ИИ: отказ, слепое доверие, магические промпты
— Живой пример, как пять строчек меняют всё
— Причины генерации бесполезных ответов
— Опыт как суперсила при работе с моделью
— Инструмент «контракт»: описание результата до старта генерации
— Пять элементов контракта с моделью
— Модель врет и не проверяет себя: пример с исследованием конкурентов
— Поддакивание моделей и эксперимент с шестью циклами
— ИИ только генерирует, но не верифицирует
— Якорение модели на случайных данных из контекста
— Почему проверка должна быть внешней и перекрестной?
— «Рваная» граница компетенций модели
— Ловушки доверия: от скепсиса до полной автоматизации
— Ответственность всегда остается за человеком
— Анонс бесплатного курса «Сигнал» от ProductSense
В подкасте упоминается:
— Исследование «Менеджмент продуктов 2025»: https://productsense.io/research25/
Словарь терминов:
— Якорение — фиксация модели на ранее упомянутых цифрах или решениях
— «Рваная граница» — невидимая и непредсказуемая граница между тем, что модель делает хорошо, и тем, где ошибается





