Поддержать команду Зеркала
Беларусы на войне
  1. «Преступная война Путина приближается к нашим границам». Российские беспилотники атаковали польский завод
  2. Путин пока молчит, но его окружение активно комментирует: ISW о реакции Кремля на ультиматум Трампа о 50 днях для завершения войны
  3. У Николая Лукашенко увеличился один из бюджетных источников дохода — его отец подписал указ
  4. «Настолько скрытый, что сами не понимают». Экс-доцентка МГЛУ Наталья Дулина назвала две черты беларусов, делающие нас антилиберальными
  5. «Приходят десятки сообщений, что ужесточается контроль на границе». Узнали, как сейчас силовики ищут участников протестов 2020 года
  6. Минск снова затопило: общественный транспорт ходит с перебоями, отключились светофоры
  7. «Один смотрел телефон, другой беседовал, а третий в сторонке наблюдал». Как проводят допросы на границе Беларуси с ЕС
  8. Беларус вернулся на родину из Литвы — его судили и дали два года колонии с крупным штрафом
  9. На БелАЭС сработала сигнализация — второй энергоблок отключили от сети
  10. «Аппетит приходит во время еды». Reuters узнал реакцию Путина на ультиматум Трампа и его дальнейшие планы
  11. «Не держу вокруг себя трусов». В 18 лет учащийся гомельского колледжа проснулся под дулом пистолета и попал в колонию — поговорили с ним
  12. Светлана Тихановская получает от правительства Литвы 35 тысяч евро в месяц? Что ответили в Офисе и МИД
  13. Силовики в соцсетях активизировали поиски участников протестов 2020 года — их интересуют выходившие на марши в двух городах


/

При активном использовании генеративного ИИ человек меняет подход к решению задач: вместо того чтобы самостоятельно анализировать информацию, он оценивает качество предложенного ИИ ответа. Это снижает нагрузку на когнитивные способности, но и уменьшает их тренированность, утверждают ученые Университета Карнеги-Меллона и Microsoft, пишет «Хайтек».

Изображение носит иллюстративный характер. Фото: Freepik.com
Изображение носит иллюстративный характер. Фото: Freepik

В эксперименте участвовали 319 человек, использующих ИИ в работе не реже раза в неделю. Их попросили описать примеры применения технологий в трех сценариях:

  • создание контента (например, написание писем);
  • сбор информации (поиск данных, составление сводок);
  • консультирование (получение советов, генерация диаграмм).

После этого ученые выясняли, задействуют ли участники критическое мышление при работе с ИИ и насколько доверяют его ответам.

Около 36% участников отметили, что осознанно использовали критическое мышление, чтобы избежать ошибок, связанных с работой ИИ. Одна из респонденток призналась, что проверяла ответы ChatGPT дважды, опасаясь ошибки при аттестации. Другой участник рассказал, что редактировал черновики писем, созданных ИИ, чтобы они соответствовали корпоративной культуре.

Однако многие признали, что доверяли ответам ИИ без проверки или ограничивались сверкой с популярными источниками вроде YouTube и Википедии.

Исследование показало, что люди, уверенные в точности ответов ИИ, реже применяли критическое мышление, чем те, кто полагался на собственные знания. Это подтверждает, что чрезмерная зависимость от алгоритмов может снижать способность человека к самостоятельному анализу.

По мнению ученых, ключевая проблема — недостаточное понимание ограничений ИИ. Чтобы избежать негативных последствий, пользователи должны знать, как алгоритмы работают, и сохранять бдительность при оценке их ответов. ИИ может ускорять выполнение задач, но полностью передоверять ему процесс мышления небезопасно.