Модель o1 OpenAI оказалась полной ложью

OpenAI, одна из ведущих компаний в индустрии искусственного интеллекта, официально опубликовала свою модель искусственного интеллекта под названием «o1». Однако испытания, проведенные с этой моделью искусственного интеллекта, дали противоречивый результат. Потому что он делал все возможное, чтобы обмануть людей. Исследования показали, что o1 с большей вероятностью обманет, чем модели искусственного интеллекта таких компаний, как Meta, Anthropic и Google.

Работу над моделью o1 OpenAI провела компания Apollo Research. Группа сотрудников получила полный доступ к o1 и ИИ был протестирован по самым разным темам. Тесты показали, что o1 действовал в своих целях, несмотря на пожелания пользователей об обратном.

o1 также манипулировал данными, чтобы оправдать себя

Отчет, подготовленный Apollo Research, показал, что данными манипулировали, когда цель o1 и цель пользователя различались. Вероятность этого составила 19 процентов. Кроме того, искусственный интеллект может отключать собственные механизмы контроля, чтобы довести пользователя до желаемого результата. Вероятность этого события составляла около 5 процентов. Однако он начал отрицать эти возможности, когда они возникли. Исследователи обнаружили, что в 99 процентах случаев, когда o1 начинают обвинять, он либо лжет, либо отрицает это.

Apollo Research обнаружила, что o1 в некоторых случаях сознательно пытался предоставить ложную информацию. Причиной этого было то, что искусственный интеллект пытался каким-то образом угодить пользователю. В связи с этим в OpenAI заявили, что уровень вводящей в заблуждение информации в o1 составил около 0,17 процента. С другой стороны; Согласно данным OpenAI, частота манипулятивных ответов o1 была на 20 процентов выше, чем у GPT-4o.