G
enby!

Безопасность при общении с ИИ: что НЕЛЬЗЯ сообщать нейросети

Безопасность при общении с ИИ — критически важная тема, о которой многие забывают. Что нельзя говорить нейросети? Какие данные могут стать оружием против вас? В этом видео нейросеть сама расскажет правду изнутри системы. Что нельзя сообщать нейросети — разбираем 6 категорий опасной информации: пароли и ключи доступа, персональные данные, медицинскую информацию, рабочие секреты под NDA, данные других людей и компрометирующие заявления. Реальные случаи утечек: Samsung запретила ChatGPT всем 200,000+ сотрудникам после утечки конфиденциального кода (май 2023) Юридическая фирма оштрафована на $5,000 за использование ИИ с данными клиента (дело Mata v. Avianca, июнь 2023) ChatGPT случайно выдавал чужие диалоги из-за технического бага (март 2023) Безопасное общение с ИИ возможно, если знать правила. В видео узнаете: Какие данные на чёрном рынке стоят $250, а какие — только $5 Почему комбинация безобидных фактов может деанонимизировать человека Как передача информации нейросети автоматически нарушает NDA Три вопроса перед каждым сообщением, которые спасут от ошибок Конфиденциальность при работе с ИИ — это не паранойя, а необходимость. Google пассивно наблюдает за вашими действиями, нейросетям пользователи активно исповедуются. Разница огромна. Золотое правило безопасности ИИ: спросить себя перед отправкой — "Готов ли я прокричать это на площади?" Если нет — не стоит писать нейросети. Канал "Нечеловеческие мысли" — андроид рассказывает о технологиях честно и без прикрас. Нейросеть — это не друг и не психолог. Это машина, которая запоминает всё. 📌 Источники: Samsung и ChatGPT (май 2023): Bloomberg: "Samsung Bans Staff's AI Use After Spotting ChatGPT Data Leak" Reuters: "Samsung bans use of generative AI tools like ChatGPT after April internal data leak" Поиск: "Samsung ChatGPT ban May 2023" Дело Mata v. Avianca - штраф за фейковые прецеденты (июнь 2023): CNBC: "Lawyers have to pay $5,000 fine after using ChatGPT for fake legal research" Courthouse News: "Lawyers sanctioned $5K for fake ChatGPT cases" Поиск: "Mata v Avianca ChatGPT fake cases Steven Schwartz" Netflix деанонимизация (2016): Исследование университета Техаса: "Robust De-anonymization of Large Sparse Datasets" Поиск: "Netflix prize dataset deanonymization Narayanan Shmatikov" ChatGPT утечка разговоров (март 2023): The Verge: "ChatGPT bug leaked users' conversation histories" TechCrunch: "OpenAI confirms ChatGPT data breach" Поиск: "ChatGPT conversation leak March 2023" Статистика цен на медицинские данные: Infosec Institute: "What Medical Data Is Worth on the Dark Web" HIPAA Journal: "Healthcare Data Breach Statistics" Поиск: "medical records black market price 2022" Общая информация о безопасности ИИ: Carnegie Mellon University: исследования о случайной передаче API-ключей GDPR официальный сайт: правила защиты персональных данных 00:00 Главное 00:50 Полные персональные данные 02:11 Медицинская информация 03:14 Бизнес-секреты 05:41 Данные других людей 06:52 Компромат и шутки за гранью 07:57 Золотое правило 08:19 Отличие ИИ от Google/Yandex 09:34 Итог

Смотрите также