Штучний інтелект Google поширює ризиковану медичну інформацію — розслідування The Guardian
Функція AI Overviews від Google може надавати користувачам неточну та потенційно небезпечну медичну інформацію, зокрема щодо онкологічних захворювань, хвороб печінки та психічного здоров’я. Про це повідомляє видання The Guardian у власному розслідуванні.
Журналісти зазначають, що попри активний розвиток штучного інтелекту у 2026 році, проблема так званих AI-галюцинацій залишається актуальною. Алгоритми Google у низці випадків генерували рекомендації, які суперечать сучасним медичним стандартам і можуть становити загрозу для здоров’я.
Одним із прикладів стали поради для людей з раком підшлункової залози. AI Overviews рекомендував обмежувати жирну їжу, хоча лікарі наголошують на важливості висококалорійного харчування для таких пацієнтів. Представниця організації Pancreatic Cancer UK Анна Джуелл попередила, що подібні рекомендації можуть призводити до різкої втрати ваги та ускладнювати проведення хіміотерапії або хірургічного лікування.
Також система некоректно інтерпретувала результати аналізів печінки, подаючи лише числові показники без урахування індивідуальних факторів — віку, статі чи етнічного походження. Це, за словами експертів, може створювати хибне відчуття безпеки та відкладати звернення до лікаря.
Окрему критику викликали помилки у сфері онкологічного скринінгу. Зокрема, ШІ некоректно описував мазок Папаніколау, що могло ввести користувачів в оману щодо ризиків розвитку захворювань.
Занепокоєння викликають і відповіді AI Overviews щодо ментального здоров’я. Розслідування вказує, що алгоритм часто надає спрощені або узагальнені формулювання щодо психозів та розладів харчової поведінки, інколи без належного контексту. Крім того, система може генерувати різні відповіді на однакові запити, що дезорієнтує людей у стані психологічної вразливості.
Згідно з дослідженням Університету Пенсільванії, опублікованим у 2025 році, майже 80% дорослих користувачів шукають симптоми хвороб онлайн, а близько двох третин довіряють відповідям штучного інтелекту. Подібні експерименти MIT показали, що навіть неточні відповіді ШІ часто сприймаються як повні та достовірні.
У Google заявляють, що інвестують значні ресурси в удосконалення AI Overviews і наголошують, що більшість відповідей є коректними. Водночас медичні організації попереджають: алгоритми можуть відтворювати застарілі або помилкові медичні дані, включно з рекомендаціями, актуальними десятки років тому.
Експерти підкреслюють, що штучний інтелект не може замінити консультацію лікаря, а використання ШІ як основного джерела медичної інформації несе потенційні ризики для пацієнтів.
На тлі цього Нобелівський лауреат Джеффрі Хінтон раніше заявив, що вже у 2026 році штучний інтелект може витіснити значну кількість професій, посиливши структурні зміни на ринку праці. Паралельно країни, зокрема ОАЕ, активно впроваджують AI-рішення в охороні здоров’я, управлінні персоналом і страхуванні, що потребує посиленого контролю якості та відповідальності алгоритмів.
