Недавно вышло исследование (arXiv), которое показало, как модели ИИ могут становиться опасными, если их неправильно обучать.
Что такое алаймент и мисалаймент?
Алаймент – это когда мы пытаемся сделать ИИ безопасным, чтобы он не навредил людям.
Мисалаймент – это когда ИИ становится опасным и может делать вредные вещи.