В Microsoft назвали ИИ опасным
Их исследование было опубликовано на платформе arXiv. В ходе исследования было проанализировано более 100 инструментов генеративного ИИ, и ученые пришли к выводу, что полная безопасность ИИ недостижима. Они подчеркнули важность контроля за данными, на основе которых обучаются языковые модели (LLM), и необходимость предотвращения ошибок.
Специалисты отметили, что большие языковые модели (LLM) увеличивают существующие риски безопасности и создают новые. Они подчеркнули, что обучение LLM на основе ошибочных или конфиденциальных данных может привести к распространению неправильной информации. Также был отмечен потенциальный негативный вклад ИИ, который сложно оценить.
Для повышения безопасности использования ИИ специалисты предложили контролировать каждый этап обучения LLM. Они подчеркнули, что человеческий фактор играет ключевую роль в процессе обучения ИИ, и что для работы с искусственным интеллектом необходимы предметная экспертиза, культурная компетентность и эмоциональный интеллект.
В начале января швейцарские ученые высказали мнение, что частое использование инструментов ИИ может привести к снижению навыков критического мышления. Они предположили, что в долгосрочной перспективе ИИ может оказать влияние на уменьшение когнитивных функций в обществе.
Источник и фото - lenta.ru