Американский юрист, имеющий тридцатилетний опыт практики использовал в суде «фиктивные» цитаты, сгенерированные ChatGPT

МЕНЮ


Главная страница
Поиск
Регистрация на сайте
Помощь проекту
Архив новостей

ТЕМЫ


Новости ИИРазработка ИИВнедрение ИИРабота разума и сознаниеМодель мозгаРобототехника, БПЛАТрансгуманизмОбработка текстаТеория эволюцииДополненная реальностьЖелезоКиберугрозыНаучный мирИТ индустрияРазработка ПОТеория информацииМатематикаЦифровая экономика

Авторизация



RSS


RSS новости


Американский юрист, имеющий тридцатилетний опыт практики использовал в суде «фиктивные» цитаты, сгенерированные ChatGPT. Выяснилось, что чат-бот в своих ответах ссылался на несуществующие дела.

Юрист Стивен А. Шварц признался, что просил чат-бота найти прецеденты по одному из дел и ChatGPT это сделал. Однако в скоре выяснилось, что 6 прецедентов ИИ просто выдумал, привел фальшивые цитаты заседаний и решения.

Как оказалось Шварц просто «не знал», что чат-бот может лгать. Теперь он «сильно сожалеет о том, что использовал генеративный искусственный интеллект для дополнения юридического исследования».

Теперь в отношении Шварца назначено слушание для обсуждения возможных санкций. Адвокат столкнулся с обвинением в представлении фальшивых судебных решений и ссылок, предоставленных ему ChatGPT.


Источник: vk.com

Комментарии: