2024 Автор: Malcolm Clapton | [email protected]. Последно модифициран: 2023-12-17 03:47
Ако изкуственият интелект попадне в грешни ръце, цивилизованият свят може да потъне в хаос.
Никой няма да отрече, че изкуственият интелект може да изведе живота ни на следващото ниво. AI е в състояние да реши много проблеми, които не са по силите на хората.
Мнозина обаче вярват, че свръхинтелигентността определено ще иска да ни унищожи, като SkyNet, или ще започне да провежда експерименти върху хора, като GLADOS от играта Portal. Иронията е, че само хората могат да направят изкуствения интелект добър или зъл.
Изследователи от Йейлския университет, Оксфорд, Кеймбридж и OpenAI публикуваха доклад за злоупотребата с изкуствен интелект. Пише, че истинската опасност идва от хакери. С помощта на злонамерен код те могат да нарушат работата на автоматизирани системи под контрола на AI.
Изследователите се опасяват, че добронамерените технологии ще бъдат навредени. Например оборудването за наблюдение може да се използва не само за залавяне на терористи, но и за шпиониране на обикновени граждани. Изследователите също са загрижени за търговските дронове, които доставят храна. Лесно е да ги прихванете и да поставите нещо експлозивно.
Друг сценарий за разрушителното използване на AI са самоуправляващите се автомобили. Достатъчно е да промените няколко реда код и машините ще започнат да игнорират правилата за безопасност.
Учените смятат, че заплахата може да бъде цифрова, физическа и политическа.
- Изкуственият интелект вече се използва за изследване на уязвимостите на различни софтуерни кодове. В бъдеще хакерите могат да създадат бот, който ще заобиколи всяка защита.
- С помощта на AI човек може да автоматизира много процеси: например да управлява рояк дронове или група автомобили.
- С помощта на технологии като DeepFake е възможно да се влияе върху политическия живот на държавата, като се разпространява фалшива информация за световните лидери с помощта на ботове в Интернет.
Тези плашещи примери засега съществуват само като хипотеза. Авторите на изследването не предполагат пълно отхвърляне на технологията. Вместо това те вярват, че националните правителства и големите компании трябва да се грижат за сигурността, докато индустрията на ИИ все още е в начален стадий.
Политиците трябва да изучават технологиите и да работят с експерти в областта, за да регулират ефективно създаването и използването на изкуствен интелект.
Разработчиците от своя страна трябва да оценят опасността от високите технологии, да предвидят най-лошите последици и да предупредят световните лидери за тях. Докладът призовава разработчиците на AI да си сътрудничат с експерти по сигурността в други области и да видят дали принципите, които гарантират сигурността на тези технологии, могат да бъдат използвани за защита на изкуствения интелект.
Пълният доклад описва проблема по-подробно, но изводът е, че AI е мощен инструмент. Всички заинтересовани страни трябва да проучат новата технология и да се уверят, че тя не се използва за престъпни цели.
Препоръчано:
Защо се страхуваме да не пропуснем нещо и как да се справим със страха от загубено време
Ако мисълта „вече е твърде късно” постоянно ви доминира, отървете се от нея с прости действия. И загубеното време няма да изглежда така
Защо се страхуваме да не пропуснем нещо важно и как да го поправим
Ако непрекъснато прелиствате емисията си в социалните медии от страх да не пропуснете нещо, може да имате синдром на загуба на печалба. Разбиране защо се случва
Капан за мислене: защо се страхуваме от терористични атаки, но пресичаме пътя на червен светофар
Обясняваме с прости думи какво означава терминът "евристика на достъпността", как подобна мисловна грешка ни пречи да живеем и как да се справим с нея
Защо се страхуваме да бъдем щастливи
Страхът от щастие е много по-често срещан, отколкото изглежда. Ако мислите, че за забавлението ще дойде ужасна сметка, най-вероятно го имате
Нещо на деня: ProPILOT Slippers - самоуправляващи се чехли от Nissan
Японската компания показа работещи мостри на познатите чехли ProPILOT с автоматично подаване на входа на стаята