Как хората могат да управляват своите алгоритмични господари?

Как хората могат да управляват своите алгоритмични господари?
Хората постепенно са принудени да признаят огромното влияние, което изкуственият интелект ще има върху обществото. Трябва обаче да мислим повече как да се направи така, че това влияние да бъде контролирано от хората, чийто живот ще се промени.

 

Google ни казва в какво да вярваме. Facebook ни казва какво е новина. Безброй други алгоритми позволяват човешки контрол и преценка, по начини, които не винаги са очевидни или добри. Както Лари Съмърс наскоро отбеляза, само въздействието върху работните места (до голяма степен от самоуправляващите се коли) би могло да бъде по-голямо от това на търговските споразумения.

 

Така че, кой ще следи алгоритмите, за да сме сигурни, че те действат в интерес на хората? Заседание на Конгреса през миналата седмица, посветено на изслушване за използването от ФБР на технологии за разпознаване на лица при водене на криминални разследвания, показа колко силно се нуждае от отговори този въпрос. Както съобщава Гардиън, ФБР събира и анализира изображения на хора без тяхно знание и с недостатъчно знание за това, доколко технологията е наистина надеждна. Предварителни данни изглежда сочат, че технологията е особено погрешна за чернокожите, които са непропорционално голяма цел на системата.

 

ФБР събира и анализира изображения на хора без тяхно знание

 

Накратко, хората се държат на тъмно по въпроса колко широко се използва изкуствен интелект, степента, в която това ги засяга и начините, по които използването на изкуствен интелект може да бъде опорочено.

 

Това е неприемливо. Най-малкото, някаква основна информация за всеки алгоритъм който се смята за достатъчно мощен, трябва да бъде направена публично достояние. Ето някои идеи за това какво може да изисква един минимален стандарт:

 

* Обхват. Чии данни се събират, как и защо? Колко надеждни са тези данни? Какви недостатъци и пропуски са известни?

 

* Въздействието. Как алгоритъмът обработва данните? Как се използват резултатите от неговите решения?

 

* Точност. Колко често алгоритъмът прави грешки – да кажем, погрешно идентифицирайки хора като престъпници или пропускайки да идентифицира престъпници? Какво е разпределението на грешките по раса и пол?

 

Такава отговорност е особено важна за правителствени организации, които имат правомощия да ограничават нашата свобода. Ако техните действия са непрозрачни и безотговорни, ние рискуваме да дадем нашите права на една дефектна машина. Помислете, например, нарастващото използване на „точки за риск от престъпления“ при вземането на решения за освобождаване под гаранция, осъждане и предсрочно освобождаване. В зависимост от данните и използвания алгоритъм, такива резултати могат да бъдат толкова предубедени, колкото е всеки човешки съдия.

 

Прозрачността, обаче, е само отправна точка. Тя няма да ни каже какво да правим, ако черните систематично получават тежки присъди или ако бедни хора автоматично биват заподозрени като престъпници. В най-добрия случай, прозрачността може да стимулира политически и морален разговор с дизайнерите на алгоритмите, или между членове на Конгреса – разговор, който ще ни накара да преразгледаме нашите най-основни представи за справедливост и свобода.

 

Източник: Философски клуб

 

 

 

 

 

 

 

 

Коментари

Напиши коментар

Откажи