Рубрики
МЕНЮ
Кравцев Сергей
Компания OpenAI официально представила свою новую языковую модель искусственного интеллекта GPT-4, способного воспринимать информацию не только текстом, но и визуально.
GPT-4. Фото: из открытых источников
Как отметил у себя в Facebook координатор экспертных групп Экономической экспертной платформы Олег Гетман, отныне доступный GPT-4 – большая мультимодальная модель (принимает входящие изображения и текст, выдает текстовые сообщения), демонстрирующая производительность на уровне человека на различных профессиональных и академических тестах. К примеру, он сдает симуляцию адвокатского экзамена, набрав баллы на уровне примерно 10% лучших участников экзамена (оценка GPT-3.5 была около нижних 10% участников).
Разработчики потратили 6 месяцев на итерационное согласование GPT-4, используя уроки соревновательной программы тестирования, а также ChatGPT, что привело к наилучшим результатам (хотя и далеким от идеальных) по факту, управляемости и отказу выходить за ограничения.
Разница между GPT-3.5 и GPT-4 проявляется, когда сложность задачи достигает достаточного порога – GPT-4 более надежный, креативный и способный обрабатывать инструкции с большими нюансами, чем GPT-3.5.
GPT-4 все еще может додумывать факты или допускать ошибки в рассуждениях, однако он значительно уменьшает ошибки по сравнению с предыдущими моделями. GPT-4 на 40% лучше, чем наш последний GPT-3.5 по внутренним соревновательным оценкам фактологии.
Достигнут прогресс в таких внешних тестах, как TruthfulQA, который проверяет способность модели отделять факты от набора неправильных утверждений, выбранных соперником (и вопросы совмещены с фактически неправильными ответами, статистически привлекательными).
Новости