Google відмовився від своєї обіцянки не використовувати ШІ для стеження за користувачами та створення зброї

Корпорація Google, що входить до складу Alphabet Inc., прибрала зі своїх принципів використання штучного інтелекту обіцянку не використовувати цю технологію з потенційно небезпечною метою.
Google просто прибрав згадку про цю обіцянку із тексту принципів, звернуло увагу агентство Bloomberg.
Оприлюднені Google "Принципи штучного інтелекту" раніше містили фрагмент під назвою "Програми штучного інтелекту, які ми не будемо використовувати", наприклад "технології, які завдають або можуть завдати загальної шкоди", включаючи зброю. Тепер цей уривок тексту не відображається на сторінці.
Відповідаючи на запит про коментар, представник Google поділився публікацією в блозі компанії, у якій ідеться про те, що "демократії повинні лідирувати в розробці штучного інтелекту, керуючись такими основними цінностями, як свобода, рівність і повага до прав людини".
"І ми віримо, що компанії, уряди та організації, які поділяють ці цінності, повинні працювати разом, щоб створити ШІ, який захищає людей, сприяє глобальному зростанню та підтримує національну безпеку", – пишуть у спільному тексті кілька топменеджерів компанії.
Водночас колишня керівниця команди Google Маргарет Мітчелл зауважила, що видалення положення про "шкоду" внаслідок використання штучного інтелекту може мати наслідки для тієї роботи, яку буде проводити Google.
"Видалення цього стирає роботу, яку багато людей у сфері етичного штучного інтелекту та активістів також виконували в Google, і що ще більш проблематично, це означає, що Google, ймовірно, тепер працюватиме над прямим розгортанням технології, яка може вбивати людей", – припустила вона.
Співробітники Google довго обговорювали, як збалансувати етичні проблеми та конкурентну динаміку у сфері штучного інтелекту, особливо після того, як запуск OpenAI ChatGPT викликав жах у пошукового гіганта. У 2023 році деякі співробітники Google висловили Bloomberg занепокоєння тим, що прагнення компанії відновити позиції в галузі штучного інтелекту призвело до етичних помилок.
Bloomberg зауважує, що перегляд правил Google є частиною ширшої зміни політики серед великих технологічних компаній після обрання президентом Дональда Трампа.
Так, у січні Meta Platforms Inc. припинила багато своїх заходів щодо підтримки інклюзії та різноманітності. Того ж місяця Amazon.com Inc. призупинила деякі програми різноманітності та інклюзії, а керівник відділу кадрів назвав їх "застарілими".