Лидерите на Г-7 договориха регулиране на изкуствения интелект

Лидерите на Г-7 договориха регулиране на изкуствения интелект

Следвайте "Гласове" в Телеграм

На срещата в Хирошима лидерите на Г-7 се споразумяха да регулират генеративния изкуствен интелект, загрижени за разрушителния потенциал на бързо развиващите се технологии, предадоха световните агенции.

Като част от така наречения “процес от Хирошима” правителствата възнамеряват да обсъдят този въпрос на ниво кабинет и да представят резултатите до края на годината, стана ясно от изявление на  лидерите на Г-7, на което се позовава Блумбърг.

Японският премиер Фумио Кишида призова за сътрудничество за осигуряване на трансграничен поток от данни, като обеща да допринесе финансово за това усилие, за да се гарантира, че развитието на AI е надеждно и ориентирано към човека.

Призивът за повече регулации отразява настроенията на лидери в индустрията и правителства по целия свят, след като пускането на генеративния AI ChatGPT на OpenAI предизвика надпревара между компаниите за ускоряване на технологичното развитие.

Страхът на страните от Г-7 е, че тези технологии, ако бъдат оставени да се развиват безконтролно, могат да се превърнат в мощен инструмент за дезинформация и политически катаклизми.

По-рано тази седмица Сам Алтман, главен изпълнителен директор на OpenAI, призова американските сенатори за по-строго регулиране на изкуствения интелект. Освен това Световната здравна организация заяви, че твърде бързото навлизане на AI е изпълнено с риск от медицински грешки, което може да подкопае доверието в технологията и да забави нейното възприемане.

Британският премиер Риши Сунак планира да разработи политика за управление на рисковете и ползите от AI, за което ще разчита на Алтман и други специалисти. Европейският съюз предприема крачка към регулиране на AI инструментите, изисквайки от компаниите да гарантират, че потребителите знаят кога взаимодействат с AI, и да забраняват използването му в реално време за идентифициране на хора на обществени места.

Алтман каза, от своя страна, че би приветствал появата на нов регулаторен орган за изкуствения интелект като начин САЩ да запазят лидерството си в тази област.

Важно е правителствата в крайна сметка да предприемат строги действия, ако има сериозен проблем. Но ако законът е твърде подробен, той няма да може да се справи с промените в технологиите, смятат AI специалисти.


Източник: technews.bg

 

 

 

Коментари

  • thenewone

    21 Май 2023 12:48ч.

    "и да представят резултатите до края на годината, стана ясно от изявление на лидерите на Г-7, на което се позовава Блумбърг" Като малки деца са! Урегулирахте ли мрежата? AI още по-малко. Разправят, че GPT4 се самообучава, а вий си регулирайте на ниво кабинет. Ау, колко важно - "ниво кабинетЮ!

    Отговори

    Напиши коментар

    Откажи
  • "потребителите знаят кога взаимодействат с AI, и да забраняват използването му в реално време за идентифициране на хора на обществени места"

    21 Май 2023 14:03ч.

    Да преведа - ще продължат да обучават ИИ както и до сега, просто няма да ни ударят по главите веднага с него. Що за регулация е това? Регулация би било никога да не обучаваш ИИ на определени неща!

    Отговори

    Напиши коментар

    Откажи
  • да, бе, да

    21 Май 2023 14:35ч.

    За ЕС съм научил идеално (не че с другите корпорации и НПО-та, които се правят, че не са такива не са същите лицемери), че действията силно противоречат на 180 градуса на думите. А иначе от статията разбирам, че ще наложат хомот на ИИ да не прибира данни в разни тайни "джобчета", които си разработи сам. Успех с начинанието.

    Отговори

    Напиши коментар

    Откажи
  • Късно е

    24 Май 2023 17:53ч.

    Предполага се, че 8% от избирателите на последните президентски избори в САЩ са били повлияни чрез индивидуализирано психологическо въздействие на база поведенчески анализ посредством ИИ. Например внушаване на усещането за безсмислие от гласуването на "грешните" привърженици, мобилизиране на "правилните", и т.н. Знаем и чия идеология обслужват големите ИТ компании. За Туитър... не знам още...

    Отговори

    Напиши коментар

    Откажи

Напиши коментар

Откажи