Штучний інтелект уже навчився переконливо говорити, писати, малювати, програмувати і навіть створювати “аргументовані” висновки. Але те, що він формує, не завжди є правдою . AI чудово оперує поняттям обґрунтованої правдоподібності — тобто створює тексти, що виглядають логічно, переконливо і навіть експертно, проте можуть бути абсолютно хибними. Обґрунтована правдоподібність, а не правда - головна небезпека AI. Люди довіряють стилю, а не змісту. AI пише впевнено, і це створює ілюзію авторитетності. Навіть фахівці іноді не помічають підміни фактів. Помилки множаться експоненційно. Якщо неправду беруть за основу нових моделей, система “вчиться” на дезінформації. Сфера ризику — медіа, аналітика, політика. Chat-боти здатні “довести” будь-яку тезу, формуючи у суспільства викривлене уявлення про реальність. Однією правдоподібною публікацією чат-бота AI будь-якого розробника можливо повністю дискредитувати користувача, який публікує щось від свого імені, а не від імені...
Decision Support System+, Business Intelligence+, Systems analysis+, C2+