Штучний інтелект уже навчився переконливо говорити, писати, малювати, програмувати і навіть створювати “аргументовані” висновки.
Але те, що він формує, не завжди є правдою.
AI чудово оперує поняттям обґрунтованої правдоподібності — тобто створює тексти, що виглядають логічно, переконливо і навіть експертно, проте можуть бути абсолютно хибними.
Обґрунтована правдоподібність, а не правда - головна небезпека AI.
Люди довіряють стилю, а не змісту.
AI пише впевнено, і це створює ілюзію авторитетності. Навіть фахівці іноді не помічають підміни фактів.-
Помилки множаться експоненційно.
Якщо неправду беруть за основу нових моделей, система “вчиться” на дезінформації. -
Сфера ризику — медіа, аналітика, політика.
Chat-боти здатні “довести” будь-яку тезу, формуючи у суспільства викривлене уявлення про реальність.
Однією правдоподібною публікацією чат-бота AI будь-якого розробника можливо повністю дискредитувати користувача, який публікує щось від свого імені, а не від імені чат-бота. Тому у всіх чат-ботів є ввічливе повідомлення, подібне до такого: "ChatGPT може помилятися. Перевіряйте важливу інформацію".
Можна виділити помилки двох груп: 1) очевидні помилки, 2)неочевидні помилки.
Приклади очевидних помилок: на зображеннях замість правдивого тексту дрібним шрифтом відображають галюцинації чат-бота AI; замість 5-ти пальців на руці (4+1) відображаються 4 (3+1); ін.
Приклади не очевидних помилок: використана відносно мала кількість джерел допущених до навчання чат-боту AI; невірне семантичне виведення, не дивлячись на запевнення чат-боу AI у правдивості написаного і це може повторюватися кілька разів, у т.ч. після самокритики у відповідь на зауваження користувача; особливо небезпечні малопомітні помилки в інфографіці, у т.ч. заміна однієї української букви на англійську і т.п. У разі перевищення безкоштовного користування чат-ботом AI кількість помилкових відповідей може збільшуватися.
Ще один ситуативний приклад для даного блогу: чат-боти AI перекладають "Business Intelligence" як "Бізнес-аналітика", але у користувача виникає логічне питання, а як же тоді перекладати "Business Analytics" (BA)?
Убудь-якому випадку треба розуміти, що чат-бот AI - це не створена Богом розумна істота, а створена людиною мережева програмна система машинного навчання (Machine learning (ML)) з учителем-людиною.
Що робити - висновки
-
Перевіряти джерела.
Не вірте “розумному” тексту без верифікації. AI — це інструмент, а не істина останньої інстанції. -
Використовувати критичне мислення.
Якщо твердження виглядає “занадто логічним”, це вже привід засумніватися. -
Розробляти системи довіри до даних.
У майбутньому головним буде не “розумніший” AI, а надійніше контрольовані дані, з яких він навчається.
Коментарі
Дописати коментар
Коментарі уточнюють інформацію записів