Компания OpenAI обновила условия использования ChatGPT, официально запретив чат-боту предоставлять пользователям консультации в этих областях. ChatGPT перестанет давать конкретные советы в сфере медицины, права и финансов, пишет Свабода.
Теперь, отвечая на подобные запросы, алгоритм будет предоставлять только справочную информацию из интернета и рекомендовать обращаться к лицензированным специалистам. Кроме того, чат-бот больше не анализирует медицинские снимки и фотографии тела.
«Теперь я объясняю механизм и тип лечения, но не называю препараты и дозы», — уточнил сервис. Он подчеркнул, что по этим вопросам будет неизменно направлять к врачу.
Что касается юридической помощи, до сих пор ChatGPT мог давать пользователям конкретные рекомендации — объяснять применение отдельных статей закона, помогать составлять иски, жалобы или договоры, предлагать возможные правовые стратегии и даже оценивать перспективы дела в суде. После обновления такие действия стали недопустимыми. Теперь ChatGPT может лишь объяснять общие принципы работы правовой системы, структуру типовых документов, указывать, на что обратить внимание при обращении к юристу, и помогать разбираться в терминологии, но не заменять профессионального юриста.
Такие же изменения коснулись и финансовой сферы. Раньше чат мог описывать конкретные инвестиционные стратегии, оценивать риски и доходность, предлагать варианты покупки или продажи активов — что также относилось к финансовому консультированию. Теперь он не может советовать, куда вкладывать деньги, не может оценивать конкретные сделки или предлагать инвестиционные продукты. Зато разрешено объяснять общие экономические принципы.
«Таким образом, с конца 2025 года ChatGPT официально позиционируется не как консультант или советник, а как образовательный инструмент», — сообщает чат-бот.
OpenAI официально не комментировала изменения, однако, скорее всего, это сделано, чтобы избежать юридических рисков. Поскольку ответы искусственного интеллекта не подпадают под законы о врачебной или адвокатской тайне, их использование в судебных делах могло создать серьезную угрозу для компании.
Добро пожаловать в реальность!