Искусственный интеллект (ИИ) на нынешний день является одной из самых перспективных технологий. Нейросети уже применяются в быту, а в ближайшем будущем будут применяться и в военной сфере. Однако ИИ несет в себе и довольно серьезные риски. Об этом в беседе с Tsargrad.tv сообщил генеральный директор ООО «Рус.Цифра» Кирилл Малофеев.

Проблема, как он сказал, заключается не только в том, что люди перестают самостоятельно думать и искать информацию. В человеческую жизнь могут зайти чужие нейросети, которые будут отбирать и формировать информацию так, как это выгодно их создателю.

«Риск заключается в утрате цифрового суверенитета. По той причине, что если государство не контролирует, что там написано, это контролирует кто-то другой. Вот этой мифической нейтральной нейросети, которая служит интересам человечества, конечно, не будет», — считает эксперт.

Именно поэтому большая часть стран осознали необходимость создания собственных социальных сетей, мессенджеров, интернет-энциклопедий и видеохостингов, добавил Малофеев.

Психолог, заместитель директора Института клинической психологии и социальной работы Пироговского Университета Екатерина Орлова до этого объяснила, почему не стоит обсуждать свои проблемы с чат-ботами на основе ИИ. По ее словам, самые сокровенные переживания, страхи и травматические ситуации человека, доверенные алгоритму, могут оказаться в руках злоумышленников или даже недобросовестных корпораций.

Кроме того, нейросети не смогут оказать квалифицированную психологическую помощь человеку, поскольку не способны оценить невербальные проявления, отметила специалист.

Хэмилтон увидел расизм в просьбе к гонщикам F1 не ругаться «как рэперы» :: Формула-1 :: РБК Спорт