Банкеръ Daily

Управление и бизнес

Тестват за расизъм и сексизъм изкуствения интелект

Разработчиците и програмистите се насърчават да наблюдават използването на изкуствен интелект в своята работа, за да се гарантира, че той няма да има расистки или сексистки прояви. Това стана ясно след като Конфедерацията на британската индустрия в нов доклад по темата за изкуствения интелект на работното място призова технологиите да бъдат внимателно наблюдавани в предприятия, където се разработват или прилагат, за да се спре "вкореняване на съществуващите предразсъдъци и бариери".

В доклада им AI: Ethics in Practice се посочва, че различни групи учени работят върху системи за изкуствен интелект, за да предотвратят възможни проблеми, свързани с използването му. Екипите са призовани да наблюдават данните, които се изпращат в невронната мрежа, за да открият проблеми и да коригират предположенията, които могат да доведат до несправедливи пристрастия в алгоритмите на изкуствения интелект. Конфедерацията на британската индустрия също така призовава компаниите да проверяват данните, постъпващи в системите за изкуствен интелект, така че да не съдържат "исторически предразсъдъци към определени групи".

Миналата година Amazon разработи алгоритъм за изкуствен интелект за автоматизиране на подбора на кандидати за работа, но в крайна сметка изостави системата. Проектът за човешка невронна мрежа, способен да набира персонал, беше закрит поради дискриминация на кандидатите по пол. Изкуственият интелект по време на тестовия период е решил, че по подразбиране жените не могат да работят и е избрал да наеме само мъже в компанията. Amazon се опита да скрие съществуването на сексистки изкуствен интелект, но информация за него изтече в пресата.

Според тогавашните разкрития на Ройтерс, през 2014 г. компанията събира екип за развитие в Шотландия и му поставя задача да създаде програма за търсене и подбор на най-добрите кандидати. "Компанията искаше да получи инструмент, който да избере петте най-подходящи от сто кандидата, за да наеме тези хора", отбелязва един от източниците на агенцията. Разработени са били 500 компютърни модела, обучени да търсят резюмета в отворени бази данни и да подберат най-добрите кандидати въз основа на 50 000 зададени условия от резюмета на предишни кандидати, търсещи работа в Amazon. Изкуственият интелект оценява кандидатите по скала от една до пет.

През 2015 г. разработчиците забелязват, че системата подбира по-малко жени специалисти от мъже. Екипът обяснява това, заявайки, че алгоритъмът е обучен въз основа на обобщение на всички служители на Amazon през последните десет години. В извадката е имало повече мъже, отколкото жени, така че изкуственият интелект е заключил, че кандидатите от мъжки пол са за предпочитане, отбелязва Ройтерс. Amazon редактира алгоритъма, но корекцията не дава гаранции, че няма да дискриминира кандидатите на други основания, така че в началото на 2017 г. компанията решава да се откаже от използването на системата.

Изпълнителният директор на Google Сундар Пичай също наскоро обясни важността на избягването на пристрастия в изкуствения интелект. В речта си по-рано през тази година той посочи пример със система за изкуствен интелект за откриване на рак на кожата. Наличието на непълни данни, които се игнорират от някои етнически групи, може да направи системата по-малко способна да идентифицира рак на кожата в определени групи. "За да бъде ефективен, той трябва да може да разпознава най-разнообразните тонове на кожата, характерни за цялото население", каза Пичай в речта си.

Facebook logo
Бъдете с нас и във