Новини

ChatGPT більше не дає персоналізованих медичних і юридичних порад: OpenAI оновила правила використання

Компанія OpenAI оновила правила використання своїх продуктів, зокрема ChatGPT, посиливши обмеження щодо надання професійних консультацій. Згідно з оновленою політикою використання, ChatGPT не може надавати персоналізовані медичні або юридичні поради без участі ліцензованого фахівця.

Що заборонено

Оновлена політика прямо забороняє використовувати ChatGPT або інші продукти OpenAI для:

  • надання індивідуальних медичних чи юридичних консультацій, які вимагають професійної ліцензії;
  • аналізу медичних зображень (МРТ, рентгенів, фото шкіри тощо) з метою встановлення діагнозу;
  • імітації ролі лікаря, адвоката або іншого фахівця, який має надавати послуги лише за ліцензією.

ChatGPT може надавати лише загальну довідкову або освітню інформацію, а користувачів тепер чітко скеровує до ліцензованих спеціалістів у разі потреби персональної поради.

Чому це сталося

У OpenAI пояснили, що такі зміни є частиною розширення політики безпеки — для забезпечення відповідального використання ШІ та зменшення ризиків неправомірного застосування технологій.

«Наші правила не замінюють юридичних вимог або професійних стандартів. Користувачі несуть відповідальність за належне використання наших сервісів», — ідеться у заяві компанії.

Компанія також наголошує на важливості захисту конфіденційності та уникнення ситуацій, коли дані користувачів можуть бути використані поза їхнім контролем.

Контекст

Раніше керівник OpenAI Сем Альтман попереджав, що ChatGPT не має лікарської чи адвокатської таємниці, а отже, надана в діалозі інформація не є конфіденційною.

Нове оновлення політики формалізує ці обмеження та робить їх обов’язковими для всіх користувачів і партнерів компанії.