G
enby!

Можно ли доверять моделям генерации текстов и кода: сеанс с разоблачением

Мы уже используем LLM для разных задач, от суммаризации текстов до написания кода. Но как и любая технология, ИИ имеет свою обратную сторону. Тимур Низамов из Rast Security доступно рассказал о типах уязвимостей, защите LLM-систем и их потенциальных рисках. 00:00 - Приглашение докладчика на сцену 00:40 - Старт доклада и пара слов о его авторе 01:30 - Опрос про доверие ИИ для кодогенерации и срыв покровов 04:00 - Зачем нужны языковые модели и как их обучают 09:20 - Гипнотизируем LLM и рискуем, копипастя код со StackOverflow 11:10 - Джеилбрейки: обходим запреты и говорим о DeepSeek 12:35 - Другие проблемы с безопастностью LLM и как тестировать их на уязвимости (советы и инструменты) 20:10 - Техники защиты LLM на доступных примерах 25:50 - Вопросы докладчику

Смотрите также