Вчені виявили чергову проблему в роботі ІІ, що було зроблено в рамках експерименту за участю ChatGPT.
Алгоритм попросили вирішити давнє математичне завдання, в якому потрібно було вдвічі збільшити площу квадрата, передає кореспондент видання Белновости.
За завданням ІІ повинен був дати відповідь на завдання, описане Платоном близько 385 до н. е., повідомляє hi-tech.mail.ru.

Оскільки ChatGPT навчався на текстах, ймовірність вирішення геометричної задачі, в якій потрібно було побудувати новий квадрат зі стороною, що дорівнює діагоналі вихідного, була вкрай мала.
Співробітники Кембриджського університету та Єврейського університету в Єрусалимі припустили, що якщо ІІ дасть правильну відповідь, то можна вважати математичні здібності не вродженою якістю, а набутою.
Чат-бот зрештою видав розумне пояснення, після чого завдання вирішили ускладнити і попросили подвоїти площу прямокутника.
ІІ відповів, що з погляду геометрії це зробити неможливо, хоча вирішення цього завдання існує.
У цей момент ChatGPT, підкреслюють вчені, повівся як учень, що висуває гіпотези, а не правильне рішення.
Тобто відповідь ІІ виявилася дуже близькою до відповіді, яка могла дати людський розум.
Але проблема в тому, що вчені не визнають справжнього мислення у сучасних нейромереж.
Йдеться про якусь «чорну скриньку», коли є результат, але невідомо яким чином його було отримано.
Читайте також
- Білоруси зможуть перевірити сайти та акаунти соцмереж на причетність до шахрайства: розробка МВС
- YouTube заплатить Трампу 24,5 млн. доларів. Така ціна блокування облікового запису