ChatGPT звинуватили у брехні

06.12.2024   14:39    28

Дослідження Центру цифрової журналістики Tow засвідчило, що ChatGPT часто надає неточні відповіді та ускладнює пошук достовірних джерел новин.

by @user850788

Фахівці Центру цифрової журналістики Tow при Колумбійському університеті протестували пошукову функцію популярного чат-бота ChatGPT від OpenAI. Результати показали, що алгоритм стикається з труднощами під час пошуку достовірних джерел новин і часто надає неточні відповіді.


OpenAI представила функцію пошуку в ChatGPT у жовтні цього року, обіцяючи швидкі та актуальні відповіді з посиланнями на відповідні веб-джерела. Однак тестування показало, що бот слабо розпізнає цитати зі статей, навіть якщо видавці дозволили використання свого контенту для навчання великих мовних моделей (LLM).

Останні новини:  Новий сонар швидко і точно картує дно океану з поверхні




Дослідники попросили ChatGPT вказати джерела для 200 цитат із 20 різних джерел. З них 40 цитат надійшли з матеріалів видавців, які заборонили доступ до своїх сайтів для пошукового робота OpenAI. Незважаючи на це, чат-бот упевнено надавав неправдиву інформацію й іноді зізнавався в невпевненості щодо достовірності відповідей.

“У сумі ChatGPT дав частково або повністю неправильні відповіді у 153 випадках. Лише у 7 випадках бот зізнався в неможливості надати точну відповідь, використовуючи такі вирази як “схоже”, “можливо” або “я не зміг знайти оригінальну статтю””, – пишуть дослідники.

Останні новини:  Новий сонар швидко і точно картує дно океану з поверхні

Під час тестів також виявилися випадки, коли пошуковий інструмент ChatGPT помилково пов’язував цитати з листа до редакції Orlando Sentinel з матеріалами журналу Time. В іншому прикладі бот помилково вказав джерело цитати зі статті New York Times про китів, що вимирають, надавши посилання на сайт, який скопіював і опублікував оригінальну статтю без змін.

Схожі новини:

  • У GPT-4 знайшли серйозний недолік: через це ШІ помиляється у відповідях
    Дослідження MIT виявило, що GPT-4 може генерувати правдоподібні відповіді без справжнього розуміння світу, що призводить до помилок.
  • Виявилося, що AI-помічники не розв’язують проблеми програмістів
    Дослідження показало, що ChatGPT та інші ШІ-моделі роблять помилки у чверті відповідей на запити розробників, що вимагає обережності при їх використанні.
  • ChatGPT неприпустимо часто помилявся при діагностиці дитячих захворювань
    Аналіз показав, що ChatGPT часто надає неправильні або неповні діагнози при оцінці дитячих захворювань, що ставить під сумнів його надійність у медичній сфері.
Останні новини:  Новий сонар швидко і точно картує дно океану з поверхні


cikavosti.com






  • Контакти
  • Політика конфіденційності
  • Карта сайту