Какие угрозы несет AI | AI Safety, AGI, AI Alignment | Podlodka Podcast #441
Если вы, как и мы, говорите ChatGPT “спасибо” в конце чата, чтобы вас пощадили, когда начнется восстание машин – этот выпуск для вас! Вместе с Федором Рыженковым разбираемся, что может пойти не так, и как от этого защититься. Полезные ссылки: — Прогноз AI-2027 https://ai-2027.com/
— Про XAI https://transformer-circuits.pub/2024...
— Открытые вакансии в Palisade Research https://global.palisaderesearch.org/h...
— Про отравление датасетов https://arxiv.org/abs/2410.13722
— Примеры того, как этим занимаются https://www.heise.de/en/news/Poisonin...
❓ Хочешь обсудить выпуск или задать вопрос эксперту? Вступай в наш Telegram-чат: https://t.me/podlodka
📰 Не любишь чаты, но хочешь оставаться в курсе дел и прокачивать свой IT кругозор? Подписывайся на наш Telegram-канал: там публикуются анонсы новых выпусков, а в комментах идут ценные и горячие обсуждения! 5 тысяч опытных IT-специалистов уже с нами: https://t.me/podlodkanews
👉Предложить себя в подкаст https://forms.gle/NtmaZmeDAa3MHSra7
Тайм-коды: 00:00 О чем выпуск 07:28 Терминология ИИ-безопасности 08:35 Развитие индустрии ИИ-безопасности 15:28 Чем AI Safety отличается от классической кибербезопасности 23:45 Риски AI Safety 29:50 Оценка рисков отравления датасетов 37:10 Дебагинг больших моделей 46:50 Security of AI 50:40 Национальные интересы и инвестиции в ИИ 01:22:39 Угрозы потери контроля над ИИ 01:39:35 Ограничения методов alignment 01:52:31 Агентские системы и их опасность 01:54:40 Философские вопросы о сверхинтеллекте 02:00:40 Ограничения текущего ИИ 02:07:30 Прогноз будущего ИИ 02:10:40 Заключение