Татьяна Шаврина — Риски AI (искусственного интеллекта)
Обсуждаем угрозы для выживания человечества, которые могут возникнуть из-за появления сильного искусственного интеллекта (AGI), с Татьяной Шавриной (Kali Novskaya) — разработчиком больших языковых моделей, а также энтузиастом опенсорса и открытого ИИ. Ссылки на ресурсы Татьяны Шавриной: Telegram-канал Kali Novskaya — https://t.me/rybolos_channel
YouTube-серия «COPYLEFT» на канале «Рабкор» — • Кому принадлежит интеллект в 2023? Блог Татьяны на Хабре — https://habr.com/ru/users/Rybolos/posts/
Дополнительные материалы по теме: Понятное объяснение принципов работы ChatGPT — • Как работает ChatGPT: объясняем нейросети ... Базовое объяснение экзистенциальных рисков от ИИ — • ChatGPT: Человечество против искусственног... Дебаты по рискам ИИ с Иваном Ямщиковым и Арчетом — • Безопасность искусственного интеллекта (Па... Подборка интересных материалов по теме AI alignment для дальнейшего изучения — https://docs.google.com/document/d/1r...
Прослушать выпуск как аудиоподкаст: SoundCloud — / 106-kali-novskaya Яндекс Музыка — https://music.yandex.ru/album/23836417
Другие агрегаторы подкастов — https://pod.link/1457434451/episode/c...
Поддержи проект RationalAnswer: Patreon (в валюте) – / rationalanswer Boosty (в рублях) – https://boosty.to/RationalAnswer
СОДЕРЖАНИЕ: 00:00 – Интро и позиция Татьяны по рискам AGI 09:14 – В чем заключается экзистенциальный риск от AGI 20:53 – Три правила робототехники Азимова 31:29 – Как распознать сильный AGI 45:05 – AGI сам научится человеческой морали? 54:06 – Прогресс, регулирование AI и open-source 1:00:40 – Насколько ChatGPT близок к AGI 1:10:31 – Не рано ли решать проблему AI alignment? 1:16:37 – Позиции сторон в споре о рисках AGI 1:21:03 – Почему технари не могут договориться по рискам AGI 1:29:44 – Что можно сделать для снижения рисков AGI 1:41:39 – Ресурсы Татьяны
Смотрите также

