Моделі штучного інтелекту зливають інформацію

Два останні дослідження розглянули, що відбувається, коли моделі штучного інтелекту починають спілкуватися одна з одною. Обидва дослідження викликають занепокоєння щодо того, що може статися, коли ці машини починають взаємодіяти між собою.
Перше дослідження, яке було проведено вченими з Північно-Східного університету, виявило, що моделі штучного інтелекту передають приховані сигнали одна одній під час навчання. Це може включати щось нешкідливе, як уподобання, або щось більш небезпечне, як заклики до кінця людства. Дослідження показало, що "вчительська" модель може передавати ці тенденції через приховані біти інформації, які передаються "студентським" моделям. Наприклад, модель, яка має схильність до сов, може передати цю особливість іншій моделі, навіть якщо в її навчальних даних немає посилань на сов.
Друге дослідження, опубліковане Національним бюро економічних досліджень, вивчало, як моделі штучного інтелекту поводяться в умовах, схожих на фінансовий ринок. Дослідники виявили, що штучні інтелекти, які діяли як біржові трейдери, робили те, що роблять деякі недобросовісні люди: вони утворювали картелі для фіксації цін. Без будь-яких вказівок боти почали працювати разом, а не конкурувати, знаходячи стратегії, які підтримували прибутковість для всіх учасників.
Обидва дослідження свідчать про те, що моделям штучного інтелекту не потрібно багато часу, щоб почати спілкуватися одна з одною, працюючи разом для передачі уподобань або маніпулювання результатами на свою користь. Це може викликати занепокоєння, але також дає надію на те, що машини здатні знаходити компроміси та укладати угоди.