AI alignment — можно ли научить ИИ морали?
Стремительное развитие искусственного интеллекта в последние годы ставит перед человечеством множество фундаментальных вопросов. Один из ключевых — можем ли мы встроить в искусственный разум человеческие ценности? Иными словами, как осуществить alignment — выравнивание ИИ с человеком в рамках морали и ценностных ориентиров так, чтобы он действовал исключительно в наших интересах и не мог нанести вред даже в случае сбоя или непредвиденного сценария? Может ли этика защитить нас от экзистенциальной угрозы сверх разумного интеллекта? Эту тему я обсудил с профессором философского факультета МГУ Вадимом Александровичем Чалым. Таймкоды: 00:00 — Вступление 00:29 — Начало разговора 01:15 — Угрозы ИИ 02:30 — Что такое AI alignment problem? 05:07 — Чем ИИ опаснее человека? 09:40 — А есть ли выравнивание среди людей? 14:20 — Выравнивание и разные этические концепции 21:15 — Утилитаристский подход к проблеме 23:30 — Проблема вагонетки в реальной жизни 26:35 — Важные анонсы 27:28 — Проблема выравнивания нерешаема? 32:45 — Кант и оценка поступков ИИ? 39:09 — Снова про утилитаризм 42:20 — Страх перед ИИ вызван нечистой совестью? 47:31 — Что делать? 51:10 — Польза прогресса в ИИ для философии 55:15 — Заключение 🔹 Телеграм-канал Вадима Александровича Чалого: https://t.me/vadim8chaly
🔹 Ссылки на Пробел: Telegram-канал: https://t.me/probelphilosophy
Twitter / X: https://x.com/glebprobel
Ридинг-клуб: https://t.me/probelphilosophy/221
💬 Поддержать выход новых видео и получить доступ к дополнительному контенту: 🔸 Boosty: https://boosty.to/probelphilosophy
🔸 Tribute: https://t.me/tribute/app?startapp=swtc
#философия #ИИ #искусственныйинтеллект #сознание #история #этика #мораль #Кант #политика #пробел #alignment