Рубрики
МЕНЮ
Кравцев Сергей
Компанія OpenAI офіційно представила свою нову мовну модель штучного інтелекту GPT-4, який здатний сприймати інформацію не тільки текстом, але й візуально.
GPT-4. Фото: із відкритих джерел
Як зазначив у себе в Facebook координатор експертних груп Економічної експертної платформи Олег Гетман, відсьогодні доступний GPT-4 — велика мультимодальна модель (приймає вхідні зображення та текст, видає текстові повідомлення), яка демонструє продуктивність на рівні людини на різних професійних і академічних тестах. Наприклад, він здає симуляцію адвокатського іспиту, набравши бали на рівні приблизно 10% найкращих учасників іспиту (оцінка GPT-3.5 була близько нижніх 10% учасників).
Розробники витратили 6 місяців на ітераційне узгодження GPT-4, використовуючи уроки змагальної програми тестування, а також ChatGPT, що призвело до найкращих результатів (хоча й далеких від ідеальних) щодо фактичності, керованості та відмови виходити за обмеження.
Різниця між GPT-3.5 і GPT-4 проявляється, коли складність завдання досягає достатнього порогу — GPT-4 надійніший, креативніший і здатний обробляти інструкції з більшими нюансами, ніж GPT-3.5.
GPT-4 все ще може "додумувати факти" чи допускати помилки у міркуваннях, проте він значно зменшує помилки у порівнянні з попередніми моделями. GPT-4 на 40% кращий, ніж наш останній GPT-3.5 за внутрішніми змагальними оцінками фактології.
Досягнуто прогресу в таких зовнішніх тестах, як TruthfulQA, який перевіряє здатність моделі відокремлювати факти від набору неправильних тверджень, вибраних суперником (wі запитання поєднані з фактично неправильними відповідями, які статистично привабливі).
Новини