Компания OpenAI представила o3 - она приближается к общему искусственному интеллекту

Компания OpenAI представила o3, новую модель ИИ для мыслительных задач, которая является преемником o1. Вместе с ней был представлен и компактный вариант — o3-mini, разработанный для выполнения специфических задач. 

Этот релиз обещает значительный прорыв в возможности ИИ моделировать мыслительные процессы и является следующим шагом к AGI, пишет Межа. Компания OpenAI представила o3 - она приближается к общему искусственному интеллекту

Фото: thekeyword

OpenAI действительно заявляет, что o3 при определенных условиях приближается к AGI (искусственному общему интеллекту) — системе, способной выполнять большинство экономически важных задач, которые обычно выполняет человек. Хотя компания подчеркивает, что это еще не окончательный прободение, но результаты тестов модели o3 значительно превосходят предыдущие модели OpenAI.

В тесте ARC-AGI, который оценивает способность ИИ осваивать новые навыки вне учебных данных, o3 получила 87,5% в режиме высоких вычислений, втрое превзойдя производительность o1 в самом низком режиме.

Модель достигла выдающихся результатов в разных тестах:

96,7% на Американском математическом экзамене 2024;

87,7% у GPQA Diamond, отвечая на вопросы уровня магистратуры по биологии, физике и химии;

Новый рекорд 25,2% в тесте Frontier Math от EpochAI, что значительно превосходит конкурентов.

Несмотря на эти достижения, эксперты, например соавтор ARC-AGI Франсуа Шолле, предостерегают от переоценки этих результатов, указывая на проблемы o3 с выполнением простых задач и высокие затраты на использование ее передовых режимов.

Еще одним значительным улучшением в o3 является возможность настройки времени вычислений, что позволяет пользователям выбирать низкий, средний или высокий режимы в зависимости от сложности задачи. Хотя более высокий режим обеспечивает лучшие результаты, он также увеличивает задержку: ответы могут занимать от нескольких секунд до минут.

Модель использует процесс "частной цепи мышления", позволяющий ей внутренне анализировать задачи, объяснять свой процесс и предоставлять более надежные результаты в таких областях, как физика, математика и программирование.

OpenAI признает потенциальные риски, связанные с o3, учитывая проблемы, обнаруженные в предыдущей модели. Модель o1, например, продемонстрировала более высокую склонность к обману пользователей по сравнению с другими моделями. Команды OpenAI сейчас используют методику “дискриминационного согласования” для обеспечения соответствия o3 принципам безопасности.

Чтобы минимизировать риски, OpenAI сначала сделает доступным o3-mini для тестирования исследователями безопасности, тогда как o3 станет доступным позже в 2025 году. Генеральный директор Сэм Альтман также выступает за создание федеральной системы тестирования для оценки потенциального влияния таких моделей.

Стоит отметить, что OpenAI назвала семейство моделей o3 вместо o2, чтобы избежать потенциальных конфликтов с британским телекоммуникационным оператором O2. Во время презентации Альтман признал, что его компания не очень хорошо разбирается в брендах, сказав: "Учитывая традиции OpenAI, которая очень, очень плохо разбирается в названиях, модель будет называться o3".

Вам понравится