Исследование показало низкие познания Microsoft Copilot в медицинских вопросах

Исследователи из Германии и Бельгии провели анализ работы Microsoft Copilot, задав ему часто задаваемые медицинские вопросы. Результаты показали, что программа предоставляла научно достоверную информацию только в 54% случаев.

Кроме того, 42% ответов могли привести к серьёзным последствиям, а в 22% случаев — даже к смерти. Это вновь поднимает вопросы о надежности поисковых систем на базе искусственного интеллекта, которые уже сталкивались с критикой.

Например, Google получил насмешки за странные рекомендации, такие как «есть камни» или добавлять клей в пиццу.

Ситуация с Microsoft Copilot вызывает опасения, так как ошибки в медицинской информации могут иметь серьёзные последствия, отметили исследователи.




Октябрь 2024
Пн Вт Ср Чт Пт Сб Вс
 123456
78910111213
14151617181920
21222324252627
28293031  


Архивы



Яндекс цитирования

Яндекс.Метрика




© 1994 - 2024 Бизнес и Компьютер