Программирование [udemy, Start-Tech Academy] Тестирование на проникновение моделей GenAI LLM: защита больших языковых моделей (2025)

  • Автор темы VkurseAngel
  • Дата начала
VkurseAngel

VkurseAngel

Старожил
Команда форума
Премиум
14 Фев 2023
44,888
156,170
121
Голосов: 0
#1
Автор: udemy, Start-Tech Academy
Название: Тестирование на проникновение моделей GenAI LLM: защита больших языковых моделей (2025)

Изображение [udemy, Start-Tech Academy] Тестирование на проникновение моделей GenAI LLM: защита больших языковых моделей (2025)


Описание:

Чему вы научитесь:

  • Понимать уникальные уязвимости больших языковых моделей (LLM) в реальных приложениях.
  • Изучите основные концепции тестирования на проникновение и их применение в системах генеративного ИИ.
  • Освоите процесс Red Teaming для LLM, используя практические приемы и моделирование реальных атак.
  • Проанализируете, почему традиционные тесты не обеспечивают достаточной безопасности GenAI, и изучите более эффективные методы оценки.
  • Изучите основные уязвимости, такие как немедленная инъекция, галлюцинации, предвзятые реакции и многое другое.
  • Используете фреймворк MITRE ATT&CK для разработки тактики противодействия, направленной против LLM.
  • Выявите и устраните угрозы, характерные для конкретных моделей, такие как чрезмерное агентство, кража моделей и небезопасная обработка
  • Проведение и предоставление отчетов по результатам эксплуатации приложений на основе LLM
Учебная программа курса
9 разделов • 53 лекций • Общая продолжительность 3 ч 21 мин
  1. Введение
  2. Введение в LLM Security & Penetration Testing
  3. Обзор уязвимостей LLM
  4. Основы тестирования на проникновение и Red Teaming
  5. Red Teaming для LLM
  6. Стратегии отчетности и смягчения последствий
  7. Структура MITRE ATT&CK для студентов LLM
  8. Уязвимости приложений LLM
  9. Заключение
Описание:

Red Teaming & Penetration Testing for LLMs — это тщательно структурированный курс, предназначенный для специалистов по безопасности, разработчиков ИИ и этичных хакеров, стремящихся защитить генеративные приложения ИИ. От основополагающих концепций безопасности LLM до продвинутых методов red teaming, этот курс снабжает вас как знаниями, так и практическими навыками для защиты систем LLM.

На протяжении всего курса вы будете заниматься практическими кейсами и моделированием атак, включая демонстрации по быстрому внедрению, раскрытию конфиденциальных данных, обработке галлюцинаций, отказу в обслуживании модели и небезопасному поведению плагина. Вы также научитесь использовать инструменты, процессы и фреймворки, такие как MITRE ATT&CK, для оценки рисков приложений ИИ структурированным образом.

К концу этого курса вы сможете выявлять и использовать уязвимости в программах LLM, а также разрабатывать стратегии смягчения последствий и отчетности, соответствующие отраслевым стандартам.

Продажник:

Скачать:
 

О нас

Слив платных курсов - скачать бесплатно

На форуме мы делимся сливами популярных курсов в различных областях знаний! Если вы хотите повысить свою профессиональную квалификацию, но не хотите тратить много на курсы, то вы попали по адресу.

VKURSE.INFO регулярно публикует:

  • слив курсов от лучших онлайн-школ, инфобизнесменов и блогеров;
  • вебинары, марафоны, мануалы, от популярных блогеров на тему здоровья и саморазвития;
  • торрент-курсы, книги и гайды, обучения веб-дизайну, программированию, создания сайтов, бизнеса, продвижения в социальных сетях актуальных сегодня.

Мы ежедневно обновляем нашу коллекцию, чтобы вы могли бесплатно найти и скачать необходимый слив курсов обучения

Быстрая навигация

Меню пользователя