Как нейросети и большие языковые модели меняют ландшафт кибербезопасности.
Спикер: Александр Чибисов
Все ссылки в описании урока 👇
————————————————
🔑 Курс “Анонимность и безопасность 2.0 “
🔗
————————————————
Наш Телеграм-канал
🔗
Чат по нейронкам
🔗
————————————————
В выступлении обсуждаются несколько ключевых моментов, касающихся нейросетей и кибербезопасности:
1. Нейросети применялись и для атак, и для защиты задолго до нынешнего хайпа вокруг больших языковых моделей вроде ChatGPT. Однако этот хайп привлек значительное внимание и инвестиции к теме ИИ.
2. Внедрение нейросетей изменит ландшафт кибербезопасности. Это уже частично происходит, но основные изменения еще впереди.
3. Появятся новые виды кибератак и утечек данных, связанные с использованием нейросетей. Например, взлом и кража данных для обучения chatbot-ов компаний.
4. Мошенники получат более мощные инструменты для атак, включая глубокие фейки. А новые “умные“ устройства могут открыть дополнительные векторы атак.
5. Анонимность уходит в прошлое, поскольку для обучения нейросетей требуется все больше персональных данных. Но пока еще есть время усилить свою цифровую безопасность и конфиденциальность.
Таким образом, нейросети несут с собой как новые киберугрозы, так и возможности для киберзащиты. Главное - не игнорировать эти технологии, а активно изучать, чтобы иметь преимущество перед злоумышленниками.
————————————————
Таймкоды:
00:50 - Тема выступления - как хайп вокруг больших языковых моделей изменит ландшафт кибербезопасности.
01:27 - Нейросети использовались и раньше, но хайп вокруг ChatGPT привлек огромные инвестиции в эту сферу.
02:11 - Ключевые события 2023 года, связанные с ИИ и кибербезопасностью.
04:18 - Крупные технологические компании начинают ограничивать доступ сотрудников к ChatGPT.
05:39 - Утечка модели Lama, предназначавшейся только для исследований.
06:20 - Попытки Илона Маска приостановить разработки ИИ.
09:42 - Массовые взломы и утечки данных из сервиса LinkedIn.
11:46 - Принятие законов, регулирующих использование больших языковых моделей.
13:02 - Запуск Илоном Маском модели GPT «Grok».
15:03 - Компания OpenAI запускает конструктор чат-ботов без необходимости кодирования.
17:47 - Те, кто выступает за ограничение ИИ, сами активно его развивают и внедряют.
23:11 - Появление новых инструментов для социальной инженерии и мошенничества.
25:12 - Сбор больших данных для обучения нейросетей ведет к снижению анонимности.
27:57 - Главная угроза искусственного интеллекта - использование технологий во вред людям.
29:56 - Есть временное “окно возможностей“ усилить свою цифровую безопасность.
32:51 - Выводы и рекомендации по использованию возможностей нейросетей.
————————————————
Дисклеймер!
Данное видео имеет исключительно образовательный характер. Мы не пропагандируем незаконные действия и не несем ответственности за их использование. Вся информация, предоставленная в наших видео, должна использоваться только в целях самообразования и повышения квалификации. Мы настоятельно рекомендуем соблюдать законы и уважать права других людей.
С уважением, Команда Магия Нейросетей
Мы за свободный интернет, но будем очень благодарны, если при распространении этого ролика вы добавите на нас ссылку. Спасибо!
Теги:
#AI #Нейросети #кибербезопасность