Първият документ за регулация на изкуствен интелект (ИИ/AI) е на път

10.11.2023

Дали това ще ни защити или ограничи?

Като част от своята цифрова стратегия, ЕС ще опита да регулира изкуствения интелект (ИИ/AI), за да осигури по-добри условия за разработването и използването на тази иновативна технология, като това следва да предпази обикновените потребители от появилите се вече измами и нарушения на авторски права.

ИИ може да се използва във всяка една сфера на човешкото съществуване, ако се приложи правилно: здравеопазване, диагностициране, транспрортиране, логистика, програмиране, генериране на изображения, безопасност и предвиждане на бедствия и прочее. Предимствата са неизброими. 

 

Предложението бе внесено още месец април и от тогава има няколко публикации, които може да разгледате, относно исканията на парламента за регулацията. Обобщено, можем да обобщим следното: актът ще бъде базиран на рисков фактор. ИИ ще се класифицира на 4 групи:

 

1. Забранени ИИ практики

Ще бъдат тези, които биха могли да поставят риск за живота, правата и безопасността на хората.

ИИ системи, които прилагат вредни манипулативни „подсъзнателни техники“.

  • ИИ системи, които експлоатират специфични уязвими групи (физически или умствени увреждания).
  • ИИ системи, използвани от публичните органи или от тяхно име за целите на социалното оценяване.
  • Системи за дистанционна биометрична идентификация „в реално време“ в обществено достъпни пространства за целите на правоприлагането, освен в ограничен брой случаи. 

 

2. Регулирани системи с висок риск

ИИ, които се създават и работят в сферите на:

  • Биометрия.
  • Критична инфраструктура.
  • Образование и професионално обучение.
  • Заетост, управление на работниците и достъп до самостоятелна заетост.
  • Достъп до основни услуги.
  • Органите на реда.
  • Управление на миграция, убежище и граничен контрол.
  • Правораздаване и демократични процеси.

 

3. Регулирани системи с ограничен риск

Най-често това ще са системи, влизащи във взаимодействие с хора - чатботове, биометрични статистики, генератори на изображения, аудио и визуално съдържание (което вече се класифицира като deepfake), ще бъдат държани отговорни за прозрачност. Това означава, накратко, че например генераторите на изображения ще трябва да посочат с какви изображения е тренирана невронната мрежа, LoRA и моделите, от които се получава резултата и съответните им легални (интелектуални) права да бъдат обезпечени.

 

4. Минимални и свободни системи

Например системи за забавление, чието приложение не следва да представлява опасност или нарушение на интелектуални права. Игри, системи за лична употреба и всичко, което не е покрито от другите 3 категории. Като, разбира се, те ще трябва да следват общите кодекси за поведение и общите рестрикции за изготвяне на ИИ модели.

Европейската комисия на консуматорите (BEUC) настоява предложението да бъде разгледано по-обстойно, за да се гарантира защитата на потребителите, като се представят и добавят общи задължения - честност, отговорност и прозрачност, върху всички ИИ системи.

Google с удосволствие приемат и подкрепят акта, след като неколкократно изтъкваха нуждата от такъв и са от най-затворените компании относно своите AI разработки.

Microsoft, макар на практика да подкрепя документа, обръща внимание на нуждата от промени, за да се осигури и възможност за развитие и иновации.

 

Приемането на акта (EU AI Act) се очаква да се случи юни 2024 г. След като бъде приет, ще трябва да се организира и инвестира в създаване/адаптиране на контролни органи, следящи за неговото прилагане. Европейската комисия може да наложи и допълнителни разпоредби и нареждания. Дали това ще окове засилилата се инвестиция в ИИ проекти или ще укроти притеснените за работните си места професионалисти - следва да видим.
 

___
Източници:

  • https://www.europarl.europa.eu/RegData/etudes/BRIE/2019/640163/EPRS_BRI(2019)640163_EN.pdf
  • https://ec.europa.eu/futurium/en/european-ai-alliance/ai-impact-assessment-code-conduct-0.html
  • https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai
  • https://www.europarl.europa.eu/RegData/etudes/BRIE/2021/698792/EPRS_BRI(2021)698792_EN.pdf
  • https://www.europarl.europa.eu/news/bg/headlines/society/20201015STO89417/pravila-za-izkustveniia-intelekt-kakvo-iska-evropeyskiiat-parlament
  • https://www.beuc.eu/press-releases/eu-risks-under-regulating-generative-ai
  • https://ai.google/static/documents/consultation-on-the-inception-impact-assessment-for-adapting-liability-rules-to-the-digital-age-and-circular-economy-google-comments.pdf
  • https://blogs.microsoft.com/wp-content/uploads/prod/sites/73/2021/09/microsoft-response-to-the-european-commission-consultation-on-the-artifical-intelligence-act.pdf
  • https://cset.georgetown.edu/article/the-eu-ai-act-a-primer
  • https://www.computerworld.com/article/3708212/us-govt-analysis-says-eu-ai-act-could-stifle-rd-competition-report.html

Изображения

  • Bing AI , prompt: A man facing off against a virtual entity with an indistinguishable face, 1/2 portrait, sideways, matrix-like background of digital numbers