Співзасновник Apple Стів Возняк вважає, що ШІ може ускладнити виявлення дезінформації
Співзасновник Apple Стів Возняк вважає, що ШІ може ускладнити виявлення дезінформації
Співзасновник Apple Стів Возняк заявив, що штучний інтелект може ускладнити виявлення шахрайства та дезінформації. Про це повідомляє BBC.
Возняк каже, що боїться, що технологію штучного інтелекту використають «погані хлопці». «ШІ настільки розумний, що відкритий для поганих гравців, тих, хто хоче обдурити вас щодо того, ким вони є», — сказав Возняк.
Він не вірить, що штучний інтелект замінить людей, оскільки йому бракує емоцій. Однак, на думку Возняка, ШІ зробить шахраїв ще більш переконливими, оскільки такі програми, як ChatGPT, можуть створювати текст, який «звучить розумно».
На його думку, контент зі штучним інтелектом має бути чітко маркований, а весь сектор із ШІ потребує законодавчого регулювання. Він вважає, що відповідальність за все, що генерується штучним інтелектом, а потім публікується у відкритому доступі, має лежати на тих, хто це публікує. Регулювання повинне притягувати до відповідальності великі технологічні фірми, які, за словами Возняка, «відчувають, що їм може все зійти з рук».
Проте, як пише BBC, співзасновник Apple висловив нотку скептицизму стосовно того, що регулятори зроблять це правильно: «Я думаю, що сили, які прагнуть грошей, зазвичай перемагають, і це трохи сумно».
Возняк, який був одним з піонерів обчислювальної техніки, каже, що втрачені можливості під час народження інтернету можуть послужити уроком для сучасних творців штучного інтелекту. Він вважає, що «ми не можемо зупинити технологію», але ми можемо підготувати людей, щоб вони були краще навчені виявляти шахрайство та зловмисні спроби отримати особисту інформацію.
У березні кілька відомих дослідників штучного інтелекту та експертів у галузі, зокрема гендиректор компаній SpaceX і Twitter Ілон Маск та співзасновник Apple Стів Возняк, підписали відкритий лист, у якому закликали розробників призупинити роботу над широкомасштабними системами штучного інтелекту, посилаючись на побоювання щодо «значних ризиків для суспільства».
4 травня Адміністрація президента США провела зустріч з виконавчими директорами компаній Google, Microsoft, OpenAI й Anthropic, щоб обговорити ключові питання безпечності штучного інтелекту. Занепокоєння щодо технології ШІ також включають порушення конфіденційності, упередженість і ризик, що це може поширювати шахрайство та дезінформацію.
Один з творців цієї технології Джеффрі Гінтон вважає, що штучний інтелект може нести для людства «більш нагальну» загрозу, ніж зміна клімату. Раніше він оголосив, що йде зі своєї посади в Google для того, щоб вільно говорити про ризики, пов'язані з ШІ.
Фото: Getty Images