Поддержать команду Зеркала
Беларусы на войне
  1. Переписали историю, а потом безвольно проиграли. Хоккейное «Динамо» закончило сезон в КХЛ
  2. Путин объявил «пасхальное перемирие» на фронте
  3. Этот триллер от Hulu переворачивает представление о сериалах про постапокалипсис. Объясняем, стоит ли смотреть (да)
  4. Какой будет погода на следующей неделе? «Лето» закончится, придет похолодание
  5. Вы красите яйца на Пасху? Объясняем, откуда взялась эта традиция, где яйца красят ржавыми гвоздями и чем писанка отличается от капанки
  6. Аналитики заявили, что Россия использует перемирие, чтобы дискредитировать Украину. Объясняем, почему
  7. Все продолжалось меньше 10 минут. Рассказываем о самом кровавом торнадо в мировой истории
  8. В МВД Польши ответили, при каких условиях возможно открытие пунктов пропуска
  9. Полезнее сахара и не накапливает радиацию? О свойствах меда ходят легенды, хотя на деле этого продукта лучше сторониться — объясняем
  10. В Купаловском уже пять лет мало кто хочет работать. Что придумали в этот раз


Группа ученых оценила потенциал чат-бота ChatGPT как инструмента самодиагностики распространенных ортопедических заболеваний. Исследование было опубликовано в Journal of Medical Internet Research.

Изображение используется в качестве иллюстрации. Фото: Pixabay.com
Изображение используется в качестве иллюстрации. Фото: Pixabay.com

Авторы исследования в течение пяти дней задавали ChatGPT одни и те же вопросы, которые касаются пяти популярных ортопедических заболеваний: синдром запястного канала, шейная миелопатия, стеноз поясничного отдела позвоночника, остеоартрит коленного сустава и остеоартрит тазобедренного сустава. И на основе некоторых данных об этих заболеваниях просили поставить диагноз и дать рекомендации.

Ученые отметили, что точность ChatGPT для самостоятельной диагностики пяти распространенных ортопедических заболеваний была непостоянной. К примеру, синдром запястного канала чат-бот верно диагностировал в 100% случаев, а вот шейную миелопатию только один раз из 25. В 80% случаев ИИ рекомендовал пользователям обратиться к врачу и часто давал неточные рекомендации относительно госпитализации пациентов.

«Учитывая риск вреда при самостоятельной диагностике без медицинского наблюдения, было бы разумно, чтобы ИИ предупреждал пациентов о необходимости обратиться за экспертным медицинским мнением», — подытожили исследователи.