60% взрослых американцев говорят в отчете Pew Research , что они чувствовали бы себя некомфортно, если бы их поставщик медицинских услуг полагался на ИИ для предоставления этих услуг, особенно при диагностике заболеваний и рекомендации лечения. И этот дискомфорт вполне обоснован, особенно если учесть опасения по поводу прозрачности и подотчетности алгоритмов ИИ, а также опасения предвзятости.
Доктор Берталан Меско, директор Института медицинских футуристов и один из ведущих голосов LinkedIn в сфере здравоохранения, провел опрос на своей личной странице LinkedIn, спрашивая свою аудиторию, считают ли они этичным использовать ИИ для принятия жизненно важных решений в сфере здравоохранения без человеческого контроля. Из 833 ответов, полученных в ходе опроса, более 700 сказали большое, жирное НЕТ.
Источник изображения
ии ждет полный крах? Абсолютно нет.
Хотя восприятие ИИ, вероятно, улучшится база данных телеграмм панамы по мере постоянного совершенствования и знакомства с решениями в области здравоохранения на основе ИИ, опасения по поводу его безопасности — это совсем другое дело.
Однако, как и в случае со всеми приложениями ИИ в различных секторах, наличие проверенной этической и нормативной базы для внедрения этой технологии в здравоохранение, а также соблюдение ее требований могли бы смягчить эти опасения.
Например, Всемирная организация здравоохранения (ВОЗ) в этом году опубликовала документ под названием «Этика и управление искусственным интеллектом в здравоохранении: руководство по крупным мультимодальным моделям (LMM)», чтобы помочь государствам-членам Организации Объединенных Наций понять плюсы и минусы использования LLMS в здравоохранении.
Благодаря интеграции искусственного
-
- Posts: 421
- Joined: Thu Jan 02, 2025 7:07 am