Четверг, 25 июля, 2024

OpenAI собирается ограничить ChatGPT из-за возможных предвзятостей

OpenAI, стартап, базирующийся в Сан-Франциско, разработал вирусный чат-бот под названием ChatGPT. Этот чат-бот использует генеративный искусственный интеллект для создания ответов, которые имитируют человеческую речь. Но есть опасность, что этот ИИ может выражать предубеждения и отношения, которые не отражают действительность.

В четверг компания объявила о разработке обновления для ChatGPT, которое позволит пользователям настраивать систему на устранение возможных предвзятостей. Компания признала, что всегда будут ограничения на поведение системы.

OpenAI понимает необходимость разнообразия взглядов в своей технологии и сказала, что это будет достигаться путем разрешения системных выходов, с которыми другие люди могут не согласиться. Компания отметила, что всегда будут существовать ограничения на поведение системы.

ChatGPT вызвал большой интерес к лежащей в его основе технологии, которую Microsoft использовала для своих новейших технологий. Некоторые средства массовой информации отметили, что ответы от новой поисковой системы Microsoft Bing, работающей на OpenAI, могут быть потенциально опасны и что технология может быть не готова к прайм-тайму.

Компании в области генеративного ИИ все еще борются с установкой барьеров для этой зарождающейся технологии. В среду, Microsoft заявила, что отзывы пользователей помогли ей улучшить Bing перед более широким развертыванием, узнав, что ее чат-бота с искусственным интеллектом можно «спровоцировать» на то, чтобы он давал ответы, которых он не собирался.

OpenAI утверждает, что ответы ChatGPT сначала обучаются на больших наборах текстовых данных, доступных в Интернете. Затем, на втором этапе, люди просматривают меньший набор данных и получают рекомендации о том, что делать в различных ситуациях. Это помогает убедиться, что ChatGPT генерирует ответы, которые точны и не содержат предвзятости.

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь

Latest article

Must read