JAMA предупреждает: людям опасно доверять ChatGPT-4 в вопросах медицины!
Нейросети и языковые модели, подобные ChatGPT-4, оказываются не вполне пригодными для анализа медицинских данных, как выяснили специалисты из Колумбийского университета. Результаты их исследования были опубликованы в научном издании JAMA Network Open.
В рамках исследования ученые оценивали, насколько эффективно нейронные сети могут определять, использовали ли пациенты, получившие травмы при катании на велосипедах и скутерах, защитные шлемы. В выборку попали данные за период с 2019 по 2022 год, содержащие 54,5 тысячи случаев обращения за медицинской помощью. Однако ChatGPT-4 не смог продемонстрировать удовлетворительные результаты и уступил традиционным методам поиска текстовой информации.
Нейросеть иногда справлялась при наличии всех текстов, используемых для строкового поиска, но при интерпретации отдельных фраз, таких как «без шлема», часто допускала ошибки.
Хотя использование языковых моделей в сфере обработки медицинских данных имеет определенный потенциал, текущий уровень технологий пока не позволяет достигать требуемой надежности. Ученые сделали акцент на том, что ChatGPT-4 пока не готов полностью и надежно выполнять задачи, связанные с анализом медицинских записей. Это свидетельствует о необходимости разработки более устойчивых и точных методов для извлечения данных из клинических отчетов.
Ранее JAMA Network Open также сообщило о других важных исследованиях. К примеру, одно из них показало, что чрезмерное использование планшетов может способствовать повышению агрессивности у детей.
Дополнительно:
На фоне активного внедрения искусственного интеллекта в различные сферы, включая медицину, возникает все больше вопросов о надежности и точности таких технологий. Справедливо отметить, что автоматизация и ИИ могут значительным образом облегчить анализ больших объемов данных и выявление определенных закономерностей. Однако в случае медицинских данных, от точности которых зависят жизни и здоровье людей, ошибка может иметь катастрофические последствия.
Колумбийские учёные не первый раз акцентируют внимание на необходимости интеграции ИИ с традиционными методами обработки медицинской информации. Современные гибридные системы, объединяющие ИИ и экспертные системы, могут предоставить более надежные результаты. Например, комбинированные модели, сочетающие алгоритмы машинного обучения с клиническими знаниями, способны лучше интерпретировать медицинские данные.
Развитие таких систем требует тесного сотрудничества между специалистами по искусственному интеллекту и медицинскими экспертами, работающими над улучшением алгоритмов и повышением их точности. Только таким образом можно добиться существенного прогресса в данной области и создать инструменты, которыми медики смогут уверенно пользоваться в своей практике.