На думку Google, AI-додатки повинні бути безпечними, соціально корисними, уникати створення або посилення упередженого ставлення, підконтрольними людям, підтримувати високі наукові стандарти, захищати конфіденційність, бути доступними для використання.
Глава Google Сундар Пічаї назвав сім принципів, якими компанія керується в роботі з ШІ. При цьому глава Google зазначив, що це «не теоретичні поняття , а конкретні стандарти» , які активно керують дослідженнями і розробками в цій галузі, і впливають на бізнес-рішення.
Згідно з Google, додатки AI повинні:
1. Бути соціально корисними . Досягнення в області штучного інтелекту матимуть трансформуючий вплив на широкий ряд галузей, включаючи охорону здоров’я, безпеку, енергетику, транспорт, виробництво і розваги, вважають в Google.
2. Уникати створення або посилення упередженого ставлення . Алгоритми AI та набори даних можуть відображати, посилювати або зменшувати упереджене ставлення . У Google визнають, що розрізнити справедливе і несправедливе ставлення не завжди просто, причому різні прояви можуть по-різному сприйматися в різних культурах і суспільствах. Але компанія має намір по-максимуму уникати негативного впливу на людей, зокрема, в таких питаннях, як раса, етнічна приналежність, стать, національність, рівень доходу, сексуальна орієнтація, а також політичні та релігійні переконання.
3. Перевірятися на безпеку . Google продовжить розробляти і застосовувати надійні методи забезпечення безпеки, щоб уникнути непередбачених результатів ai-розробок, що несуть ризик заподіяння шкоди.
4. Бути підконтрольним людям . Google розроблятиме ai-системи, які надаватимуть належні можливості для зворотного зв’язку, пояснень та подання скарг. Ai-розробки компанії підлягатимуть відповідному людському контролю та керівництву.
5. Захищати конфіденційність . Принципи конфіденційності Google застосовуватимуться і на етапі розробки, і на етапі використання AI-технологій.
6. Підтримувати високі наукові стандарти . За словами Пічаї, технологічні інновації базуються на науковому методі та відданості відкритому дослідженню, інтелектуальній строгості, цілісності та співпраці. Google буде працювати з низкою зацікавлених сторін для сприяння продуманому лідерству в цій галузі, спираючись на науково суворі та мультидисциплінарні підходи.
7. Бути доступними для використання, яке узгоджується з цими принципами .
Пічаї також окреслив області, в яких Google не буде займатися ai-розробками і дослідженнями. У їх числі:
- Технології, які приносять або можуть принести шкоду;
- Озброєння та інші технології, головною метою яких є заподіяння шкоди людям;
- Технології, які збирають або використовують інформацію для спостереження, що порушує міжнародні норми;
- Технології, що порушують принципи міжнародного права і права людини.
«Ми вважаємо, що ці принципи є правильним фундаментом для нашої компанії і майбутнього розвитку штучного інтелекту. Цей підхід узгоджується з нашими цінностями, викладеними у зверненні засновників компанії в 2004 році. Там ми чітко визначили наш намір зайняти позицію, орієнтовану на довгострокову перспективу, навіть якщо це означає прийняття короткострокових компромісів. Тоді ми це сказали, А тепер ми в це віримо » , — уклав Пічаї.
Слідом за публікацією AI-принципів Керівник хмарних сервісів Google Дайан Грін (Diane Green) озвучила позицію компанію щодо співпраці з Пентагоном, активно критикованого співробітниками корпорації. Зокрема, вона заявила, що укладати нові контракти компанія не буде, але взяті на себе зобов’язання виконає, при цьому дотримуючись принципів, оголошених Сундаром Пічаї.
Мета Project Maven-прискорити розпізнавання об’єктів на знімках з безполітників за допомогою штучного інтелекту. Термін дії контракту закінчується в березні 2019 року.
Про те, що Google Cloud не буде продовжувати контракт з Міністерством оборони США, стало відомо на початку цього місяця. Тепер Грін офіційно підтвердила цю інформацію.
&Nbsp;