В последние годы мы стали свидетелями значительного прорыва в области искусственного интеллекта (AI). Сейчас AI проникает во все сферы нашей жизни, от автомобильной промышленности до медицинских исследований. Это словосочетание стало настолько популярным, что мы можем услышать его повсюду – на конференциях, в новостях, в разговорах с коллегами. Но что же на самом деле скрывается за этой аббревиатурой?
Давайте разберемся что же такое AI сейчас, какие перспективы у этой технологии и самое главное - как она повлияет на информационную безопасность?
Для того чтобы понять, какое влияние AI оказывает на общество и информационную безопасность, полезно заглянуть в историю, а именно в момент зарождения этой технологии. И хотя многие ассоциируют AI с современными технологиями, на самом деле его корни уходят далеко в прошлое.
Первые идеи и концепции, связанные с искусственным интеллектом, возникли еще в середине XX века.
“...Возможности новых машин в плане скорости вычислений оказались больше человеческих, поэтому в учёном сообществе зародился вопрос: каковы границы возможностей компьютеров и достигнут ли машины уровня развития человека? В 1950 году один из пионеров в области вычислительной техники, английский ученый Алан Тьюринг, пишет статью под названием «Может ли машина мыслить?», в которой описывает процедуру, с помощью которой можно будет определить момент, когда машина сравняется в плане разумности с человеком, получившую название теста Тьюринга…" - отрывок из wikipedia.org статья Искусственный интеллект.
Статья Тьюринга стала мощным стимулом для развития искусственного интеллекта и вдохновила многих исследователей в этой области. Она оказала значительное влияние на формирование концепций и методов AI, а также вызвала дискуссии о природе разума и интеллекта.
Итак, мы переносимся в ноябрь 2022 года, где общество уже имеет доступ к различным инструментам, включая голосовых помощников, автопилоты в автомобилях и другие инновации. Разработчики успешно используют интегрированные среды разработки (IDE) для написания кода, ускоряя и улучшая процесс разработки программного обеспечения. В то же время специалисты по информационной безопасности активно настраивают системы поведенческого анализа и анализа уязвимостей для обеспечения безопасности данных и сетей.
На первый взгляд, может показаться, что эти инструменты представляют собой продукт искусственного интеллекта, способного значительно упростить и автоматизировать человеческую работу. Однако, важно отметить, что данные инструменты и технологии, хотя и включают некоторые элементы искусственного интеллекта, в действительности искусственным интеллектом не являются, так как не могут быть полностью автономными и самообучающимися системами, что считается характеристикой искусственного интеллекта.
События, поделившие мир AI на “до и после”
В то время как голосовые помощники и автопилоты используют техники машинного обучения и обработки естественного языка для выполнения определенных задач, они все же ограничены предопределенными правилами и алгоритмами. Они не способны к самообучению и не могут адаптироваться к новым ситуациям без вмешательства разработчиков.
30 ноября 2022 года компания OpenAI запускает чат-бот с искусственным интеллектом под названием "ChatGPT". Это стало значительным событием в мире искусственного интеллекта, поскольку ChatGPT представлял собой продукт, основанный на глубоком обучении и нейронных сетях. Он был способен генерировать тексты, отвечать на вопросы и вести разговоры, приближаясь к естественному общению с людьми.
Запуск ChatGPT вызвал широкий резонанс в обществе и стал поводом для обсуждения искусственного интеллекта и его потенциала. Впервые люди смогли взаимодействовать с AI-системой, которая училась на основе большого объема данных и предоставляла практически бесконечные ответы и информацию. ChatGPT, хоть и допускал ошибки в своих ответах, но смог показать, что искусственный интеллект активно развивается и становится доступным для использования в повседневной жизни.
После запуска ChatGPT в 2022 году, развитие искусственного интеллекта продолжалось непрерывно. Новые и более технологически продвинутые модели стали доступными. В частности, в следующем году, в 2023, компания OpenAI представила GPT-4, новую версию своей модели искусственного интеллекта.
GPT-4 представлял собой значительное улучшение по сравнению с предыдущими версиями. Он обладал более высокой точностью, лучшим пониманием контекста и большей способностью генерировать качественные и связные ответы. Модель использовала более сложные архитектуры нейронных сетей и была обучена на огромных объемах данных, что позволило ей достичь нового уровня в области генерации текста. Также стоит отметить, что GPT-4 научился работать с изображениями.
Параллельно с выходом GPT-4 появляются и другие инструменты, расширяющие применение больших языковых моделей (LLM), таких как GPT-4. Например, 30 марта 2023 года разработчиком Significant Gravitas был размещен на GitHub проект под названием Auto-GPT.
Auto-GPT представляет собой AI-агента, который, получив цель на естественном языке, стремится достичь ее, разбивая на подзадачи используя Интернет и другие инструменты. Он использует API GPT-4 или GPT-3.5 от OpenAI и является одним из первых примеров приложения, использующего GPT-4 для выполнения автономных задач.
Для лучшего понимания, представим ситуацию, где нам нужно составить пригласительное письмо на наш день рождения и отправить его всем нашим друзьям (... указываем ссылку на страничку) из "Одноклассников" по электронной почте (...указываем логин и пароль нужного почтового ящика). ChatGPT, используя свои возможности, с легкостью составил бы нам отличное пригласительное письмо. Однако, он бы не смог определить, кто является нашими друзьями и тем более отправить им что-либо по почте. Здесь Auto-GPT проявил бы свою полезность, самостоятельно и успешно дойдя до поставленной цели.
Казалось бы, у нас появились инструменты которые при условии правильно поставленной цели всё могут делать за нас, куда еще дальше? Однако появляются фреймворки (LangСhain) позволяющие создавать собственные AI приложения, а также “Transformers Agents” - инструменты которые на основе задачи могут не просто обратиться к преднастроенной LLM системе, а выберут наиболее подходящие нейросети для достижения цели, и будут переключаться между ними в ходе решения задач.
Имеем ли мы сейчас полноценный AI?
Для ответа на этот вопрос необходимо понять, что подразумевается под "интеллектом" и какие характеристики должны быть присущи тому, чтобы его назвать "интеллектуальным". Вопрос природы разума и интеллекта до сих пор остается предметом споров, и точного ответа пока нет. Однако, в апреле 2023 года старший менеджер по исследованиям в компании Microsoft, Себастьян Бубек, опубликовал научную работу под названием “Sparks of Artificial General Intelligence: Early experiments with GPT-4”.
В своей работе Бубек основывается на исследованиях других ученых в области интеллекта и выделяет 6 характеристик, по которым можно судить о наличии интеллекта:
Себастьян приходит к выводу, что ChatGPT, основанный на GPT-4, полностью соответствует 4 из этих характеристик. Однако, он не способен самостоятельно разбивать задачу и приступать к ее выполнению, а также не может быстро и эффективно переобучаться.
Важно подчеркнуть, что путем комбинированного использования современных инструментов искусственного интеллекта мы можем говорить о появлении полноценного искусственного интеллекта, и что самое главное - AI стал доступен всем!
Почему специалистам по ИБ нужно “держать руку на пульсе”
С одной стороны, появление современных инструментов искусственного интеллекта (AI) имеет значительное положительное влияние на общество. Например, ChatGPT стал незаменимым помощником для многих людей. Его способность генерировать тексты, составлять заголовки и давать ценные рекомендации обогатила процесс обучения, повысила эффективность маркетинговых кампаний и помогла в развитии новых идей. Однако, AI — это не только ChatGPT, ведь есть множество других инструментов, таких как Auto-GPT, которые автоматизируют выполнение сложных задач, экономя время и ресурсы.
С другой стороны, мы должны быть осведомлены о потенциальных рисках и угрозах, связанных с использованием AI. Некоторые злоумышленники могут использовать ИИ его для создания вредоносных программ, фишинговых атак и других киберугроз. Более того, с появлением AI-технологий, которые могут развертываться локально и обладать способностями, аналогичными ChatGPT на GPT-4, без цензуры и с возможностью обучения на локальных данных, потенциальные угрозы становятся еще более серьезными.
Современные специалисты по информационной безопасности должны учитывать, что порог входа в киберпреступность значительно снизился, а инструменты, помогающие хакерам воровать данные и взламывать системы, значительно усовершенствовались. Поэтому им необходимо быть бдительными, следить за последними тенденциями в области искусственного интеллекта, а также осознавать возможные новые угрозы, связанные с AI-технологиями, и предпринимать соответствующие меры для обеспечения безопасности систем и данных.
Будущее и итоги
Появление и развитие искусственного интеллекта (AI) несомненно вызвали множество этических и юридических споров, которые продолжают оставаться актуальными и вызывают серьезные опасения. До сих пор не были разработаны четкие законы, регулирующие авторские права на творческие результаты, созданные с использованием нейросетей и искусственного интеллекта. Это оставляет много вопросов и разногласий в отношении владения и контроля над такими произведениями.
Кроме того, с появлением AI возникают серьезные этические споры и опасения. Один из примеров — приостановка разработки GPT-5 компанией OpenAI из-за опасений, что AI может выйти из-под контроля и привести к непредсказуемым последствиям. Это свидетельствует о необходимости осторожного и ответственного подхода к развитию и применению AI.
Еще одной из основных проблем, связанных с AI, является создание высококачественных фейков, неотличимых от реальности. С помощью AI возможно создание поддельных текстов, фотографий, видео и звуковых записей, что может привести к распространению дезинформации и манипуляции информацией. Это вызывает серьезные тревоги в области доверия к источникам информации и безопасности данных.
Для эффективного и безопасного использования AI необходимо активно вести дискуссии и разработать соответствующие нормы и законы, которые урегулируют авторские права, этические аспекты и принципы ответственного использования AI. Кроме того, необходимо улучшать алгоритмы и технологии, которые помогут распознавать и бороться с фейками, а также обеспечить прозрачность и открытость в разработке и применении AI.
В будущем, продолжение исследований и развитие AI будут требовать более тесного взаимодействия между специалистами по информационной безопасности, разработчиками, правовыми экспертами и обществом в целом. Только через совместные усилия мы сможем обеспечить баланс между инновацией и безопасностью.
Развитие AI требует нашего внимания, диалога и совместных усилий. Мы должны стремиться к сбалансированному развитию AI, где инновации и безопасность идут рука об руку. Только так мы сможем использовать потенциал AI на благо общества и создать будущее, где искусственный интеллект служит человеческим ценностям и интересам.
Автор: Басов Алексей, Старший специалист по ИБ “Астрал Безопасность”