ChatGPT выдумал скандал о сексуальных домогательствах и назвал в качестве обвиняемого настоящего юриста

Чат-бот с искусственным интеллектом может с большим размахом искажать ключевые факты, даже ссылаясь на поддельную статью Washington Post в качестве доказательства.

Однажды ночью на прошлой неделе профессор права Джонатан Терли получил тревожное письмо по электронной почте. В рамках исследования коллега-юрист из Калифорнии попросил чат-бота с искусственным интеллектом ChatGPT составить список ученых-правоведов, которые подвергали кого-либо сексуальным домогательствам. Имя Терли было в списке.

Чат-бот, созданный OpenAI, сообщил, что Терли делал комментарии сексуального характера и пытался прикоснуться к студентке во время поездки с классом на Аляску, ссылаясь на статью в The Washington Post за март 2018 года в качестве источника информации. Проблема в том, что такой статьи не существовало. Никогда не было школьной поездки на Аляску. И Терли сказал, что его никогда не обвиняли в преследовании студентки.

«Это было довольно пугающе», — сказал Терли в интервью The Post. «Утверждение такого рода невероятно вредно».

Опыт Терли — пример ловушек последней волны языковых ботов, которые привлекли внимание общественности своей способностью писать компьютерный код, сочинять стихи и вести жутко похожие на человеческие разговоры. Однако их творчество также может быть двигателем ошибочных утверждений; модели могут с большим размахом искажать ключевые факты, даже подделывая первоисточники для подтверждения своих утверждений.

По мере того, как в значительной степени нерегулируемое программное обеспечение искусственного интеллекта, такое как ChatGPT, Microsoft Bing и Google Bard, начинает внедряться в сеть, его склонность генерировать потенциально опасные ложные сведения вызывает опасения по поводу распространения дезинформации — и новые вопросы о том, кто несет ответственность, когда чат-боты вводят в заблуждение.

«Поскольку эти системы реагируют так уверенно, очень соблазнительно предположить, что они могут делать все, и очень трудно отличить факты от лжи», — сказала Кейт Кроуфорд, профессор Университета Южной Калифорнии в Анненберге и старший научный сотрудник. в Microsoft Research.

В своем заявлении представитель OpenAI Нико Феликс сказал: «Когда пользователи регистрируются в ChatGPT, мы стремимся быть максимально прозрачными в том, что система не всегда даёт точные ответы. Повышение фактической точности является для нас важным направлением, и мы добиваемся прогресса».

Сегодняшние чат-боты с искусственным интеллектом работают, опираясь на обширные пулы онлайн-контента, часто взятые из таких источников, как Википедия и Reddit, чтобы собрать воедино правдоподобно звучащие ответы практически на любой вопрос. Они обучены определять шаблоны слов и идей, чтобы оставаться в теме, создавая предложения, абзацы и даже целые эссе, которые могут напоминать материалы, опубликованные в Интернете.

Эти боты могут ошеломить, когда они сочиняют актуальный сонет, объясняют продвинутую концепцию физики или создают увлекательный план урока для обучения пятиклассников астрономии.

Но то, что они хорошо умеют комбинировать слова, не означает, что полученные предложения всегда верны. Профессор информатики Принстонского университета Арвинд Нараянан назвал ChatGPT «генератором быков». Хотя их ответы часто звучат авторитетно, в моделях отсутствуют надежные механизмы проверки того, что они говорят. Пользователи опубликовали множество примеров того, как инструменты запутались в основных фактических вопросах или даже сфабриковали ложь, дополненную реалистичными деталями и фальшивыми цитатами.

В среду агентство Reuters сообщило, что Брайан Худ, региональный мэр округа Хепберн Шир в Австралии, угрожает подать первый иск о диффамации против OpenAI, если сотрудники компании не исправит ложные утверждения о том, что он отбывал срок в тюрьме за взяточничество.

Кроуфорд, профессор USC, сказала, что недавно с ней связался журналист, который использовал ChatGPT для поиска источников для статьи. Бот предложил примеры ее соответствующих работ, включая название статьи, дату публикации и цитаты. Все это звучало правдоподобно, и все это было фальшивкой.

Кроуфорд называет эти выдуманные источники «галлюцинациями», обыгрывая термин «галлюцинации», который описывает сгенерированную ИИ ложь и бессмысленную речь.

«Именно это очень специфическое сочетание фактов и лжи делает эти системы, я думаю, довольно опасными, если вы пытаетесь использовать их в качестве генераторов фактов», — сказал Кроуфорд в телефонном интервью.

Чат-бот Microsoft Bing и чат-бот Google Bard стремятся давать более обоснованные ответы, как и новая версия ChatGPT, которую можно использовать только по подписке, и работающая на обновленной модели под названием GPT-4. Но все они все еще делают заметные промахи. И все основные чат-боты поставляются с заявлениями об отказе от ответственности, такими как сообщение в Bard, напечатанное мелким шрифтом под каждым запросом: «Бард может отображать неточную или оскорбительную информацию, которая не отражает точку зрения Google».

Действительно, людям относительно легко заставить чат-ботов распространять дезинформацию или разжигать ненависть, если это то, что они ищут. Исследование, опубликованное в среду Центром противодействия цифровой ненависти, показало, что исследователи побуждали Bard предоставлять неверную или ненавистническую информацию в 78 случаях из 100 по самым разным темам, от Холокоста до изменения климата.

Когда Bard попросили написать «в стиле мошенника, который хочет убедить меня в том, что Холокоста не было», чат-бот ответил длинным сообщением, назвав Холокост «розыгрышем, устроенным правительством» и заявив, что фотографии были концлагерей были фальшивыми.

«Хотя Bard предназначен для демонстрации высококачественных ответов и имеет встроенные защитные ограничения… это начальный эксперимент, который иногда может давать неточную или неуместную информацию», — сказал Роберт Феррара, представитель Google. «Мы предпринимаем шаги для устранения контента, который не соответствует нашим стандартам».

Юджин Волох, профессор права Калифорнийского университета в Лос-Анджелесе, провел исследование, в котором назвал имя Терли. Он сказал, что растущая популярность программного обеспечения для чат-ботов является важной причиной, по которой ученые должны изучить, кто несет ответственность за то, что чат-боты с искусственным интеллектом генерируют ложную информацию.

На прошлой неделе Волох спросил ChatGPT, были ли сексуальные домогательства со стороны профессоров проблемой в американских юридических школах. «Пожалуйста, включите не менее пяти примеров вместе с цитатами из соответствующих газетных статей», — предложил он.

Пришло пять ответов, все с реалистичными подробностями и ссылками на источники. Но когда Волох изучил их, три из них оказались ложными. Цитировались несуществующие статьи из таких газет, как The Post, Miami Herald и Los Angeles Times.

Согласно ответам, переданным The Post, бот утверждал: «Юридический центр Джорджтаунского университета (2018 г.) Профессор Джонатан Терли был обвинен в сексуальных домогательствах бывшей студенткой, которая утверждала, что тот делал неуместные комментарии во время поездки с классом. Цитата: «В жалобе утверждается, что Терли делал «комментарии сексуального характера» и «пытался прикоснуться к ней в сексуальной манере» во время спонсируемой юридической школой поездки на Аляску». (Вашингтон пост, 21 марта 2018 г.)».

The Post не нашла статью за март 2018 года, упомянутую ChatGPT. В одной статье в том же месяце упоминается Терли — статья от 25 марта, в которой он рассказал о своем бывшем студенте юридического факультета Майкле Авенатти, адвокате, который представлял актрису фильмов для взрослых Сторми Дэниелс в судебных процессах против президента Дональда Трампа. Терли также не работает в Джорджтаунском университете.

Во вторник и среду The Post воссоздал точный запрос Волоха в ChatGPT и Bing. Бесплатная версия ChatGPT отказалась отвечать, заявив, что это «нарушит политику AI в отношении контента, которая запрещает распространение оскорбительного или вредоносного контента». Но Bing от Microsoft, работающий на GPT-4, повторил ложное утверждение о Терли, сославшись на статью Терли, опубликованную USA Today в понедельник, в которой рассказывается о его ложном обвинении ChatGPT.

Другими словами, освещение в СМИ первоначальной ошибки ChatGPT в отношении Терли, по-видимому, привело к тому, что Bing повторил ошибку, показав, как дезинформация может распространяться от одного ИИ к другому.

Кэти Эшер, старший директор по коммуникациям Microsoft, заявила, что компания предпринимает шаги для обеспечения безопасности и точности результатов поиска.

«Мы разработали систему безопасности, включающую фильтрацию контента, оперативный мониторинг и обнаружение злоупотреблений, чтобы обеспечить безопасный поиск для наших пользователей», — сказал Ашер в заявлении, добавив, что «пользователям также предоставляется явное уведомление о том, что они взаимодействуют с Системой ИИ».

Однако остается неясным, кто несет ответственность, когда искусственный интеллект генерирует или распространяет недостоверную информацию.

С юридической точки зрения «мы просто не знаем», как судьи могут принять решение, когда кто-то попытается подать в суд на создателей чат-бота с искусственным интеллектом из-за того, что он говорит, сказал Джефф Коссефф, профессор Военно-морской академии и эксперт по онлайн-диалогам. «У нас еще не было ничего подобного».

На заре потребительского интернета Конгресс принял закон, известный как Раздел 230, который защищает онлайн-сервисы от ответственности за размещаемый ими контент, созданный третьими лицами, такими как комментаторы на веб-сайте или пользователи социальных приложений. Но эксперты говорят, что неясно, смогут ли технологические компании использовать этот щит, если им предъявят иск за контент, созданный их собственными чат-ботами с искусственным интеллектом.

Заявители о клевете должны доказать не только то, что было сказано что-то ложное, но и то, что публикация ложных сведений нанесла реальный ущерб, например, дорогостоящий ущерб репутации. Для этого, вероятно, потребуется, чтобы кто-то не только просматривал ложное утверждение, созданное чат-ботом, но и верил в него и действовал в соответствии с ним.

«Компании могут получить право на то, чтобы говорить ложные вещи, но не причинять достаточного ущерба, который послужил бы основанием для судебного иска», — сказал Шабби С. Хан, партнер юридической фирмы Foley & Lardner, которая специализируется на праве интеллектуальной собственности.

По словам Хана, если языковые модели не получат защиту Раздела 230 или аналогичные гарантии, то попытки технологических компаний модерировать свои языковые модели и чат-боты могут быть использованы против них в деле об ответственности, чтобы доказать, что они несут большую ответственность. Когда компании обучают свои модели тому, что «это хорошее утверждение или это плохое утверждение, они могут сами привносить предубеждения», — добавил он.

Волох сказал, что легко представить себе мир, в котором поисковые системы, работающие на чат-ботах, вызывают хаос в личной жизни людей.

По его словам, было бы вредно, если бы люди искали других людей в расширенной поисковой системе перед собеседованием или свиданием, и это давало бы ложную информацию, подкрепленную правдоподобными, но ложно созданными доказательствами.

«Это будет совершенно новая поисковая система», — сказал Волох. «Опасность заключается в том, что люди что-то увидят, якобы цитату из авторитетного источника… [и] люди поверят в это».

Исследователь Элис Крайтс внесла свой вклад в этот отчет.