У швейцарському Давосі відбулися панельні дискусії у рамках Всесвітнього економічного форуму. Цього року однією з ключових тем обговорень стали нові технології та, зокрема, розвиток штучного інтелекту. Основні дискусії велися щодо того, як можна регулювати технологію, не заважаючи її розвитку, а також того, як штучний інтелект може вплинути на життя людей. Подробиці від ZN.

Питання регулювання ШІ

Сумнівів щодо необхідності регулювання технології вже практично не залишилося. Штучний інтелект проникає у всі сфери життя людей, від освіти та роботи до виконання повсякденних завдань. Але все ж таки встановлення жорстких рамок, в яких необхідно рухатися, може призвести до уповільнення розвитку технології або навіть її смерті.

Генеральний директор компанії IBM Армінд Крішна заявив, що необхідно регулювати не технології, а їхнє застосування.

«Дуже важко регулювати саму технологію, бо це зупиняє інновації. Регулюйте шляхи використання. Чим ризикованішим є спосіб використання, тим регульованішим він має бути. Це підхід, який можна і потрібно використовувати», – заявив він.

Крім того, за словами Крішни, розробників технологій необхідно зробити юридично відповідальними у разі, якщо вони допустять їх некоректне використання.

Дискусії торкнулися також того, чи достатньо законів робототехніки, сформульованих Айзеком Азімовим, для регулювання діяльності роботів, які працюють під управлінням штучного інтелекту.

Аянна Говард з Університету Огайо заявила, що таких принципів недостатньо, необхідно прописати й інші обмеження чи можливості. За її словами, світ не ділиться на чорне та біле, у ньому багато сірого. І роботи мають навчитися приймати рішення у рамках цього «сірого».

«Подумайте про "не завдавати шкоди" з такої точки зору. У мене літні батьки, їм потрібно приймати ліки. І мій домашній робот має їм їх давати. Але якщо вони кажуть ні, не хочуть приймати ліки, що ви робитимете? Як один з батьків або дитина ви ухвалите рішення, що потрібно застосувати невеликий примус. Що робити, якщо я робот-охоронець і охороняю будинок, до якого заходить грабіжник? Я не повинен шкодити людині і просто пропустити грабіжника?», – пояснила вона.

Вплив ШІ на робочі місця

Останнім часом все частіше звучить думка, що штучний інтелект і роботи заберуть робочі місця у людей. Так, дослідження Goldman Sachs показало, що генеративний ШІ може поставити під загрозу 300 мільйонів робочих місць у великих економіках. Технології можуть збільшити світовий ВВП на 7%, але призвести до значного руйнування ринку праці.

У Давосі Хаді Партові, генеральний директор Code.org, заявив про те, що роботу у людей забирає не штучний інтелект, а люди, які вміють ним користуватися.

«Коли люди думають про ризик втратити роботу через ШІ, ризик не полягає в тому, що роботу відбере ШІ. Її віддадуть тому, хто вміє користуватись ШІ. І це буде набагато більше заміщення. Не йдеться про те, що працівників замінять машини, особливо у випадку з роботою в офісі. А про те, що краще чи сучасніше освічена людина може бути вп'ятеро продуктивнішою. І це збільшує важливість навчання тому, як використати ці інструменти», - заявив він.

Головний виконавчий директор Sanofi Пол Хадсон заявив про те, що ШІ не забирає роботу, а змінює її природу. Люди не хочуть займатися певними рутинними завданнями та передають їх штучному інтелекту.

Крісті Хоффман, генеральний секретар UNI Global Union, додала, що згідно з дослідженням до 2030 року 80% середніх працівників зможуть виконувати обсяг роботи, на який зараз потрібно п'ять днів, за чотири дні. А це порушує питання про те, чи потрібно переходити на чотириденний робочий тиждень.

«Ми маємо думати ширше і про зміну структури робочого тижня. Не обов'язково 20% людей втратять робочі місця, можливо, ми просто перейдемо до чотириденного робочого тижня»,  зауважила вона.

Перспективи розвитку ШІ

Торкнулися в Давосі і теми того, яким може бути розвиток технології в найближчому майбутньому і в більш віддаленій перспективі.

Так, генеральний директор компанії Intel Пет Гелсінгер заявив про те, що найближчими роками розробники повинні не тільки прагнути навчити свої моделі, але й зрозуміти, як їх можна використовувати, як їх перенести з великих центрів даних до кожного пристрою, доступного користувачам.

Він також зазначив, що моделі ШІ повинні навчитися думати не лише швидко, а й правильно. А це є критично важливим, якщо вони будуть повсюдно представлені в нашому житті.

Один із засновників та генеральний директор Cohere Inc. Ейдан Гомес заявив про те, що розвиток неможливий, якщо дослідники в цій галузі будуть йти тим же шляхом, що і зараз. За його словами, нейромережі, як і люди, мають навчатися самостійно та самовдосконалюватись.

«До цього ви могли зупинити будь-кого на вулиці та попросити його навчити модель. І це покращило б її якість. Але вони стають справді розумними. Вже не можна підійти до простого перехожого. Потрібно звати магістра математики чи студента-біолога. А потім – доктора наук. А потім когось? Людство та його знання – це верхня межа для наявної стратегії. І ми маємо вийти за ці рамки», – заявив Гомес.

Професорка інформатики Стенфордського університету, засновниця та генеральна директорка Insitro Inc Дафна Коллер наголосила, що для розвитку штучного інтелекту йому потрібно дати можливість експериментувати із зовнішнім світом. Саме так розвивається інтелект людини, так можна розвинути комп'ютери.

Небезпека використання даних

Розвиток штучного інтелекту, нейротехнологій та інших технологій робить все більш актуальним питання необхідності захисту даних людей. За словами експертів, люди можуть не повною мірою усвідомлювати небезпеку віртуального світу та глобальної мережі, не кажучи вже про технології, які прямо чи неінвазивно зчитують інформацію з мозку.

Так, Моріс Леві, голова наглядової ради Publicis Groupe, заявив про те, що кожен, хто користується інтернетом, уразливий. За його словами, як тільки людина виходить онлайн, вона наражається на ризик вимагання або ж того, що його акаунти будуть зламані хакерами.

Експерт із захисту прав людини та викладач Гарвардського університету Брітан Хеллер заявила про те, що на даний момент люди не повністю розуміють, який масив даних передають, стикаючись з технологіями доповненої реальності, а існуючі норми щодо захисту особистих прав не можуть повною мірою захистити людину в цифровий світ.

А події, що відбуваються у віртуальній реальності, сприймаються мозком і тілом людини як реальні. Тому люди повинні чітко розуміти, що вони віддають та приймають, стикаючись із технологіями доповненої реальності.

Американський психолог, когнітивіст, дослідник ШІ та письменник Гері Маркус під час обговорення розвитку нейротехнологій заявив про те, що в майбутньому вони можуть перетворитися на Троянського коня і навів приклад із Facebook.

«Подумайте про Facebook. Ви думали, що спілкуєтеся з друзями, але що вони робили насправді – збирали докладні дані і працювали з іншими продавцями. І тут станеться те саме. Про вас будуть зібрані такі докладні дані, наскільки можливо, щоб продати ваш персоналізований портрет», – вважає експерт.

Джерело фото Midjourney

Приєднуйтесь до нашої сторінки і групи у Фейсбуці, спільнот у Viber та Telegram