ChatGPT и OpenAI превзошли врачей в диагностике заболеваний. Точность нейросетей составила от 76% до 90%, тогда как врачи диагностировали заболевание с успехом в примерно 74%. Об этом пишет New York Times со ссылкой на исследование, в котором приняли участие 50 экспертов в сфере медицины.
- врачи, которые не использовали ИИ, получили средний балл 74%;
- врачи, которые использовали ИИ, получили средний балл 76%;
- ChatGPT получил средний балл 90%.
Эксперты ожидали, что чат-боты на базе ИИ помогут врачам диагностировать болезни. Однако для них стало неожиданностью, что врачи с ИИ-инструментом делали не меньше ошибок, чем их коллеги, не использовавшие чат-бот.
Участникам исследования предложили шесть историй болезни, на основе которых нужно было поставить диагноз. Их выводы оценивали другие медицинские эксперты - они видели только ответы врачей с ChatGPT, без чат-бота или вовсе самой нейросети.
Истории болезни были основаны на случаях реальных пациентов. Ранее они нигде не публиковались, то есть ChatGPT не был обучен на этих данных.
Одна из проблем заключалась в том, что многие врачи не знали, как пользоваться ИИ. В итоге они не прислушивались к боту, если его выводы казались им сомнительными. Большинство врачей были уверены в своих диагнозах и не доверяли искусственному интеллекту.
Чаще специалисты воспринимали чат-бота как поисковую систему для прямых вопросов. Только некоторые из них поняли, что они могут загрузить всю историю болезни в инструмент и попросить его дать исчерпывающий ответ на вопрос.
Россиянка съела полтора килограмма монет и чуть не погибла
Педиатров обяжут отслеживать детей со склонностью к ожирению