ChatGPT сдает экзамен на врача и ставит диагнозы

ChatGPT сдает экзамен на врача и ставит диагнозы Бизнес

Специалисты гарвардского университета во главе с доктором Айзеком Кохейном решили протестировать 4 версию ChatGPT на предмет возможности использования искусственного интеллекта (ИИ) в области медицины. Итоги исследования показали, что искусственный интеллект показывает себя в этой области намного лучше многих врачей.

Доктор Айзек Кохейн является известным гарвардским специалистом в области информационных технологий и медицины. Он совместно со своими двумя коллегами решил протестировать и понять, можно ли ИИ использовать во врачебной сфере. На основании данных экспериментов им была написана книга «Революция ИИ в медицине». В написании книги совместно с Айзеком Кохейном приняли участие журналистка К. Голдберг и корпоративный вице-президент Microsoft Healthcare Питер Ли. ИИ-модель ChatGPT на базе GPT четвертой версии была выпущена в марте текущего года. Данная модель в 9 из 10 случаев смогла правильно ответить на вопросы, которые задаются при прохождении экзамена для получения лицензии на право заниматься врачебной деятельностью. Ее показатели гораздо выше, чем у ChatGPT на базе GPT-3 и GPT-3.5. При этом некоторые доктора с лицензиями прошли тестирование хуже, чем GPT-4.

Искусственный интеллект не только показал себя в качестве знатока фактов, он одновременно с этим проявил прекрасные переводческие способности. Получился своеобразный микс — медицинский работник и переводчик. Медицинская выписка на португальском языке проблем ему не доставила. При этом он смог перефразировать сложный медицинский текст выписки в материал, который может спокойно прочитать и понять ученик 6 класса средней школы. Врачи получили от GPT-4 ряд полезных советов о том, как нужно правильно себя вести у постели пациента и как общаться с ним о его состоянии на понятном языке. ИИ-модель гораздо быстрее любого врача может обработать объемные медицинские отчеты и практически мгновенно обобщить их содержимое.

Для изложения своих отчетов ИИ-модель использовала практически как человек. Однако специалисты пока считают, что искусственный интеллект при размышлениях использует шаблоны, потому делать полноценные рассуждения с причинно-следственными связями он пока не в состоянии. Однако она смогла диагностировать редчайшую болезнь после того, как ей предложили данные по реальному случаю заболевания. С такой задачей смог бы справиться только специалист с достаточно большим опытом врачебной практики. По мнению специалистов инструментарий на основе ИИ будет доступен в обозримом будущем для миллиона людей.  Однако, как сделать такую систему безопасной для людей пока не совсем понятно. GPT-4 не всегда дает верные ответы и может допускать различные ошибки. Даже если вы укажите ИИ на ошибки, он будет отстаивать свою правоту и не согласится с вашими доводами. Поэтому разработчикам еще придется плотно поработать с ИИ, чтобы он мог быть абсолютно точным и безопасным для людей.

Оцените статью
Добавить комментарий