Дронове и самоуправляващи се автомобили като оръжия: защо трябва да се страхуваме от хакери
Дронове и самоуправляващи се автомобили като оръжия: защо трябва да се страхуваме от хакери
Anonim

Ако изкуственият интелект попадне в грешни ръце, цивилизованият свят може да потъне в хаос.

Дронове и самоуправляващи се автомобили като оръжия: защо трябва да се страхуваме от хакери
Дронове и самоуправляващи се автомобили като оръжия: защо трябва да се страхуваме от хакери

Никой няма да отрече, че изкуственият интелект може да изведе живота ни на следващото ниво. AI е в състояние да реши много проблеми, които не са по силите на хората.

Мнозина обаче вярват, че свръхинтелигентността определено ще иска да ни унищожи, като SkyNet, или ще започне да провежда експерименти върху хора, като GLADOS от играта Portal. Иронията е, че само хората могат да направят изкуствения интелект добър или зъл.

Защо изкуственият интелект може да бъде сериозна заплаха
Защо изкуственият интелект може да бъде сериозна заплаха

Изследователи от Йейлския университет, Оксфорд, Кеймбридж и OpenAI публикуваха доклад за злоупотребата с изкуствен интелект. Пише, че истинската опасност идва от хакери. С помощта на злонамерен код те могат да нарушат работата на автоматизирани системи под контрола на AI.

Изследователите се опасяват, че добронамерените технологии ще бъдат навредени. Например оборудването за наблюдение може да се използва не само за залавяне на терористи, но и за шпиониране на обикновени граждани. Изследователите също са загрижени за търговските дронове, които доставят храна. Лесно е да ги прихванете и да поставите нещо експлозивно.

Друг сценарий за разрушителното използване на AI са самоуправляващите се автомобили. Достатъчно е да промените няколко реда код и машините ще започнат да игнорират правилата за безопасност.

Защо изкуственият интелект може да бъде сериозна заплаха
Защо изкуственият интелект може да бъде сериозна заплаха

Учените смятат, че заплахата може да бъде цифрова, физическа и политическа.

  • Изкуственият интелект вече се използва за изследване на уязвимостите на различни софтуерни кодове. В бъдеще хакерите могат да създадат бот, който ще заобиколи всяка защита.
  • С помощта на AI човек може да автоматизира много процеси: например да управлява рояк дронове или група автомобили.
  • С помощта на технологии като DeepFake е възможно да се влияе върху политическия живот на държавата, като се разпространява фалшива информация за световните лидери с помощта на ботове в Интернет.

Тези плашещи примери засега съществуват само като хипотеза. Авторите на изследването не предполагат пълно отхвърляне на технологията. Вместо това те вярват, че националните правителства и големите компании трябва да се грижат за сигурността, докато индустрията на ИИ все още е в начален стадий.

Политиците трябва да изучават технологиите и да работят с експерти в областта, за да регулират ефективно създаването и използването на изкуствен интелект.

Разработчиците от своя страна трябва да оценят опасността от високите технологии, да предвидят най-лошите последици и да предупредят световните лидери за тях. Докладът призовава разработчиците на AI да си сътрудничат с експерти по сигурността в други области и да видят дали принципите, които гарантират сигурността на тези технологии, могат да бъдат използвани за защита на изкуствения интелект.

Пълният доклад описва проблема по-подробно, но изводът е, че AI е мощен инструмент. Всички заинтересовани страни трябва да проучат новата технология и да се уверят, че тя не се използва за престъпни цели.

Препоръчано: