Начало » Новини » Света
02.08.2024 г.

До 1 август 2025 г. България трябва да определи институцията за контрол на изкуствения интелект

Законът влезе в сила от август 2024 г.
До 1 август 2025 г. България трябва да определи институцията за контрол на изкуствения интелект

Снимка: sinor.bg

На този етап може да ви се стори нереално, че в селското стопанство ще се използва масово и изкуствен интелект, но до година-две това няма да изненадва никого. Затова и вчера от Европейската комисия припомниха, че от 1 август влиза в сила Европейският законодателен акт за изкуствения интелект (Законодателен акт за изкуствения интелект) — първият в света всеобхватен регламент, който ще регулира неговото използване.

Законодателният акт има за цел да гарантира, че изкуственията интелект (ИИ), разработен и използван в ЕС, е надежден, с гаранции за защита на основните права на хората.

Регламентът има за цел да се създаде хармонизиран вътрешен пазар за ИИ в ЕС, като се насърчава внедряването на тази технология и се създава благоприятна среда за иновации и инвестиции. Въвежда се далновидно определение за този интелект, основано на безопасността на продуктите и основан на риска подход в ЕС.

Минимален риск: Повечето системи с ИИ като например системите за препоръчване с ИИ и нежеланите филтри, попадат в тази категория. Тези системи не са изправени пред задължения съгласно Законодателния акт за изкуствения интелект поради минималния риск за правата и безопасността на гражданите. Дружествата могат доброволно да приемат допълнителни кодекси за поведение.

Специфичен риск за прозрачността: Системите с ИИ като чатботове трябва ясно да разкриват на ползвателите, че взаимодействат с машина. Определено съдържание, генерирано от ИИ, включително дълбинните фалшификати трябва да бъде етикетирано като такова и потребителите са длъжни да бъдат информирани, когато се използват системи за биометрична категоризация или разпознаване на емоции. Освен това доставчиците ще трябва да проектират системите така, че съдържанието под формата на синтетично аудио, видео, текст и изображения да е маркирано в машинночетим формат и да е отбелязано като изкуствено създадено или манипулирано.

Висок риск: От системите с ИИ, определени като високорискови, ще се изисква да отговарят на строги изисквания, включително системи за намаляване на риска, високо качество на наборите от данни, регистриране на дейността, подробна документация, ясна информация за ползвателите, човешки надзор и високо равнище на надеждност, точност и киберсигурност. Регулаторните лаборатории ще улеснят отговорните иновации и разработването на съответстващи на изискванията системи с ИИ. Такива високорискови системи с ИИ включват например системи с ИИ, използвани за набиране на персонал или за оценка дали някой има право да получи заем или да управлява автономни роботи.

Неприемлив риск: Системите с ИИ, които се считат за несъмнена заплаха за основните права на хората, ще бъдат забранени. Това включва системи или приложения с ИИ, които манипулират човешкото поведение с цел заобикаляне на свободната воля на ползвателите като например играчки, използващи гласова помощ, насърчаващи опасно поведение на малолетни и непълнолетни лица, системи, които позволяват „социално оценяване“ от правителства или дружества, и определени приложения на прогнозната полицейска дейност. Освен това, някои видове използване на биометрични системи ще бъдат забранени, например системите за разпознаване на емоции, използвани на работното място, и някои системи за категоризиране на хора или отдалечена биометрична идентификация в реално време за целите на правоприлагането на обществено достъпни места (с малки изключения).

За да се допълни тази система, със Законодателния акт за изкуствения интелект се въвеждат и правила за т.нар. модели на ИИ с общо предназначение, които са много способни модели на ИИ, проектирани да изпълняват голямо разнообразие от задачи, като генериране на текст, подобен на човека. Моделите на ИИ с общо предназначение все повече се използват като компоненти на приложенията с ИИ. Законодателният акт за изкуствения интелект ще гарантира прозрачност по веригата за създаване на стойност и ще обърне внимание на възможните системни рискове на най-подходящите модели.

Прилагане и изпълнение на правилата в областта на ИИ

Държавите членки разполагат със срок до 2 август 2025 г. да определят национални компетентни органи, които ще наблюдават прилагането на правилата за системите с ИИ и ще извършват дейности по надзор на пазара. Службатаза ИИ на Комисията ще бъде основният изпълнителен орган за Законодателния акт за ИИ на равнището на ЕС, както и правоприлагащ орган за правилата за моделите на ИИ с общо предназначение.

Три консултативни органа ще подкрепят прилагането на правилата. Европейският съвет по изкуствен интелект ще гарантира еднакво прилагане на Законодателния акт за изкуствения интелект във всички държави — членки на ЕС, и ще действа като основен орган за сътрудничество между Комисията и държавите членки. Научна група от независими експерти ще предлага технически съвети и принос относно правоприлагането. По-специално този панел може да изпраща предупреждения до Службата по ИИ относно рискове, свързани с модели на ИИ с общо предназначение. Службата за ИИ може също така да получава насоки от консултативен форум, съставен от различни заинтересовани страни.

На дружествата, които не спазват правилата, ще бъдат налагани глоби. Глобите биха могли да достигнат до 7% от световния годишен оборот за нарушения на забранени приложения с ИИ, до 3 % за нарушения на други задължения и до 1,5 % за предоставяне на невярна информация.

По-голямата част от правилата на Законодателния акт за изкуствения интелект ще започнат да се прилагат на 2 август 2026 г. Забраните на системите с ИИ, за които се счита, че представляват неприемлив риск обаче ще започнат да се прилагат след шест месеца, докато правилата за т.нар. модели с ИИ с общо предназначение ще започнат да се прилагат след 12 месеца.

За да се преодолее преходният период преди пълното прилагане, ЕК стартира Пакта за ИИ. С тази инициатива разработчиците на ИИ се приканват доброволно да приемат ключови задължения по Законодателния акт за ИИ преди законоустановените срокове.

Комисията също така разработва насоки за определяне и подробно определяне на начина на прилагане на Законодателния акт за ИИ и улесняване на инструментите за съвместно регулиране като стандарти и кодекси за поведение. Комисията отправи покана за изразяване на интерес за участие в изготвянето на първия Кодекс за поведение в областта на ИИ с общо предназначение, както и консултация с участието на множество заинтересовани страни, даваща възможност на всички заинтересовани страни да изразят мнението си по първия Кодекс за поведение съгласно Законодателния акт за изкуствения интелект.

До 1 август 2025 г. България трябва да определи институцията за контрол на изкуствения интелект
2331
 

Последни материали
Виж
Стационарните телефони на ДФЗ отново работят
Годишно увеличение на разходите за труд в еврозоната
Най-голямо увеличение на разходите за заплати е регистрарано в Хърватия и България
Откриха академичната учебна година в Лесотехническия университет
Смесена туршия
Трета част
Употребата на хербициди в борбата с плевелите
Рекордните температури продължават и през август и годината досега е най-топлата в историята на земното кълбо
Свързани материали
Виж
Наука и бизнес
България изостава в опитите с изкуствено предизвикване на валежи в полза на фермерите
Важен е контролът
Службата за изкуствен интелект към ЕК ще заработи от 16 юни
Иновативно
България влиза в топ мрежа за развитие на изкуствения интелект
Доклад
Дали месото от епруветка ще стане продуктът на бъдещето?
Меморандумът е между фонд Земеделие и институт към БАН
Фермерите ще имат Виртуален оперативен център по изкуствен интелект в земеделието
Мониторинг
Агробизнесът със сигнал за изкуствено създадени условия в избора на доставчици по схемата „Училищен плод“
Приятели на sinor.bg:  Стоматолог, София | Трактори Кубота | Книжарница | АГРОВЕСТНИК | 
РЕКЛАМА |  КОНТАКТИ |  ЗА НАС |  ОБЩИ УСЛОВИЯ |  ПОЛИТИКА ЗА ЛИЧНИ ДАННИ
Всички права запазени
sinor.bg 2003 - 2024
RSS новини