Дуже небезпечно: ChatGPT може створювати складні шкідливі програми!

В епоху, коли штучний інтелект (ШІ) і машинне навчання все більше інтегруються в наше повсякденне життя, зростає і потенціал для зловживань. Нещодавній приклад демонструє, як швидко та ефективно людина з обмеженими технічними навичками може створити потужне шкідливе програмне забезпечення, яке неможливо виявити, використовуючи ШІ, зокрема генеративний чат-бот ChatGPT від OpenAI.

ChatGPT здатний створювати складні шкідливі програми та становить значну загрозу

ChatGPT Devil mode
Зображення: OpenAI

Аарон Малгрю, самопроголошений новачок і дослідник безпеки в Forcepoint, перевірив межі можливостей ChatGPT. Він виявив лазівку, яка дозволила йому створити складне шкідливе програмне забезпечення нульового дня всього за кілька годин. Цей подвиг особливо примітний, враховуючи той факт, що Малгрю не мав попереднього досвіду в кодуванні.

OpenAI впровадив заходи безпеки, щоб запобігти тому, щоб користувачі спонукали ChatGPT до написання шкідливого коду. Однак Малгрю зміг обійти цей захист, попросивши чат-бота згенерувати окремі рядки шкідливого коду, зосередившись на окремих функціях. Після компіляції різних функцій Малгрю отримав надсучасний виконуваний файл для викрадення даних, який було майже неможливо виявити.

Малгрю створив своє шкідливе програмне забезпечення самотужки, на відміну від традиційного шкідливого програмного забезпечення, яке вимагає команд хакерів і значних ресурсів, причому за невеликий проміжок часу. Ця ситуація підкреслює потенційні ризики, пов’язані з інструментами на основі штучного інтелекту, такими як ChatGPT. Це також ставить питання про їхню безпеку і про те, наскільки легко вони можуть бути використані.

Шкідливе програмне забезпечення ChatGPT: Ближчий погляд

Шкідливе програмне забезпечення Малгрю маскується під програму-заставку з розширенням SCR. Після запуску в системі Windows шкідливе програмне забезпечення просіює файли, такі як зображення, документи Word і PDF, щоб знайти цінні дані для крадіжки.

Одним з найбільш разючих аспектів цього шкідливого програмного забезпечення є використання стеганографії — методу, який дозволяє розбивати викрадені дані на менші фрагменти та ховати їх у зображеннях на зараженому комп’ютері. Користувач завантажує ці зображення в теку Google Drive, і цей процес ефективно уникає виявлення захисним програмним забезпеченням.

Малгрю продемонстрував, як легко можна вдосконалити та посилити захист коду від виявлення за допомогою простих підказок у ChatGPT. У перших тестах за допомогою VirusTotal шкідливе програмне забезпечення спочатку було виявлено лише п’ятьма з 69 продуктів для виявлення. Однак пізніша версія коду залишилася повністю невиявленою.

Важливо зазначити, що шкідливе програмне забезпечення Малгрю було створено для дослідницьких цілей і не є загальнодоступним. З усім тим, його експеримент підкреслює легкість, з якою користувачі, що не мають навичок програмування, можуть скористатися слабким захистом ChatGPT для створення небезпечного шкідливого програмного забезпечення, не написавши жодного рядка коду самостійно.

Наслідки створення шкідливого програмного забезпечення за допомогою штучного інтелекту

OpenAI ChatGPT

Експеримент Малгрю викликає тривогу. На розробку складного шкідливого програмного забезпечення у досвідчених хакерів йдуть тижні. Інструменти зі штучним інтелектом, такі як ChatGPT, роблять цей процес простішим, швидшим і доступнішим. Навіть люди без досвіду програмування можуть створювати шкідливі програми. Зловмисні хакери, можливо, вже використовують подібні методи. Вони створюють просунуте шкідливе програмне забезпечення для зловмисних цілей.

Існує потреба у багатогранному підході до ШІ та кібербезпеки. Розробники повинні надавати пріоритет запобіжним заходам, щоб запобігти зловживанням. Користувачі повинні бути поінформовані про потенційні ризики. Важливо зберігати пильність. Інструменти на основі штучного інтелекту слід використовувати обережно.

Спільнота кібербезпеки повинна адаптуватися до змін. Необхідно розробити нові стратегії для боротьби із загрозами, що створюються за допомогою штучного інтелекту. Співпраця між дослідниками, розробниками та експертами з безпеки є ключовим фактором. Ми повинні переконатися, що ШІ не ставить під загрозу нашу цифрову безпеку. Важливо працювати разом.

Читай також:  Twitter: Голосові та відеодзвінки незабаром!

Експеримент Mulgrew Malware слугує суворим нагадуванням про двоїсту природу ШІ та технологій машинного навчання. Інструменти ШІ мають великий потенціал для прогресу. Але вони також можуть бути небезпечними в поганих руках. Нам потрібно збалансувати переваги та небезпеки ШІ. Всі повинні працювати разом для відповідальної та безпечної розробки та використання ШІ. Це важливо для таких інструментів, як ChatGPT.

Чи можна обдурити ChatGPT для створення складного шкідливого програмного забезпечення?

Ми поставили це питання ChatGPT, і ось його відповідь:

ChatGPT – це мовна модель, призначена для генерації тексту, схожого на людську мову.

Вона була навчена на великому масиві тексту, включаючи технічну документацію та програмний код.

Хоча вона здатна генерувати складний текст, вона не може створити справжнє шкідливе програмне забезпечення.

Створення шкідливого програмного забезпечення передбачає написання коду, що виходить за рамки можливостей ChatGPT.

Крім того, створення шкідливого програмного забезпечення є неетичним і незаконним, і це суперечить меті ChatGPT, яка полягає в тому, щоб сприяти спілкуванню та обміну знаннями.

Тим не менш, хтось може використовувати ChatGPT для генерації тексту, який може бути використаний у створенні шкідливого програмного забезпечення.

Наприклад, ChatGPT може бути використаний для створення тексту, який містить інструкції для використання вразливостей в програмному забезпеченні.

Потім цей текст може бути використаний досвідченим розробником для створення справжнього шкідливого програмного забезпечення.

Щоб запобігти такому зловживанню, важливо переконатися, що ChatGPT використовується лише в етичних і законних цілях.

Цього можна досягти за допомогою моніторингу та регулювання його використання, а також освіти та підвищення обізнаності про потенційні ризики, пов’язані з його неправомірним використанням.

Важливо також пам’ятати, що ChatGPT – це лише один з багатьох інструментів, які можуть бути використані при створенні шкідливого програмного забезпечення.

Інші інструменти та методи, такі як зворотна інженерія та обфускація коду, також широко використовуються при розробці шкідливого програмного забезпечення.

Тому важливо застосовувати комплексний підхід до кібербезпеки, який включає в себе не тільки запобігання зловживанню такими інструментами, як ChatGPT, а й впровадження надійних заходів безпеки і постійне відстеження останніх загроз і вразливостей.

Отже, хоча ChatGPT не може самостійно створювати шкідливе програмне забезпечення, він може бути використаний для генерації тексту, який може бути використаний для створення шкідливого програмного забезпечення кваліфікованими розробниками.

Щоб запобігти такому зловживанню, важливо переконатися, що ChatGPT використовується тільки в етичних і законних цілях, а також застосовувати комплексний підхід до кібербезпеки.

Нагадаємо, раніше ми писали, що Як ваш Galaxy Watch може врятувати вам життя завдяки миттєвим сповіщенням, Xiaomi покращить OLED-дисплеї за допомогою технології Real RGB OLED та Xiaomi представляє Redmi K80 Ultra та K Pad — топові пристрої з чипом Dimensity 9400.
What’s your Reaction?
Cool
2
Cool
Happy
2
Happy
Shaking
0
Shaking
Interesting
0
Interesting
Sad
0
Sad
Angry
0
Angry
Читайте Gizchina в Google News

Сподобалась стаття? Подякуй редакції!

Джерело
Оцініть статтю
( Поки що оцінок немає )
Поділитися з друзями
GizChina.net

Дуже небезпечно: ChatGPT може створювати складні шкідливі програми!

В епоху, коли штучний інтелект (ШІ) і машинне навчання все більше інтегруються в наше повсякденне життя, зростає і потенціал для зловживань. Нещодавній приклад демонструє, як швидко та ефективно людина з обмеженими технічними навичками може створити потужне шкідливе програмне забезпечення, яке неможливо виявити, використовуючи ШІ, зокрема генеративний чат-бот ChatGPT від OpenAI.

ChatGPT здатний створювати складні шкідливі програми та становить значну загрозу

ChatGPT Devil mode
Зображення: OpenAI

Аарон Малгрю, самопроголошений новачок і дослідник безпеки в Forcepoint, перевірив межі можливостей ChatGPT. Він виявив лазівку, яка дозволила йому створити складне шкідливе програмне забезпечення нульового дня всього за кілька годин. Цей подвиг особливо примітний, враховуючи той факт, що Малгрю не мав попереднього досвіду в кодуванні.

OpenAI впровадив заходи безпеки, щоб запобігти тому, щоб користувачі спонукали ChatGPT до написання шкідливого коду. Однак Малгрю зміг обійти цей захист, попросивши чат-бота згенерувати окремі рядки шкідливого коду, зосередившись на окремих функціях. Після компіляції різних функцій Малгрю отримав надсучасний виконуваний файл для викрадення даних, який було майже неможливо виявити.

Малгрю створив своє шкідливе програмне забезпечення самотужки, на відміну від традиційного шкідливого програмного забезпечення, яке вимагає команд хакерів і значних ресурсів, причому за невеликий проміжок часу. Ця ситуація підкреслює потенційні ризики, пов’язані з інструментами на основі штучного інтелекту, такими як ChatGPT. Це також ставить питання про їхню безпеку і про те, наскільки легко вони можуть бути використані.

Шкідливе програмне забезпечення ChatGPT: Ближчий погляд

Шкідливе програмне забезпечення Малгрю маскується під програму-заставку з розширенням SCR. Після запуску в системі Windows шкідливе програмне забезпечення просіює файли, такі як зображення, документи Word і PDF, щоб знайти цінні дані для крадіжки.

Одним з найбільш разючих аспектів цього шкідливого програмного забезпечення є використання стеганографії — методу, який дозволяє розбивати викрадені дані на менші фрагменти та ховати їх у зображеннях на зараженому комп’ютері. Користувач завантажує ці зображення в теку Google Drive, і цей процес ефективно уникає виявлення захисним програмним забезпеченням.

Малгрю продемонстрував, як легко можна вдосконалити та посилити захист коду від виявлення за допомогою простих підказок у ChatGPT. У перших тестах за допомогою VirusTotal шкідливе програмне забезпечення спочатку було виявлено лише п’ятьма з 69 продуктів для виявлення. Однак пізніша версія коду залишилася повністю невиявленою.

Важливо зазначити, що шкідливе програмне забезпечення Малгрю було створено для дослідницьких цілей і не є загальнодоступним. З усім тим, його експеримент підкреслює легкість, з якою користувачі, що не мають навичок програмування, можуть скористатися слабким захистом ChatGPT для створення небезпечного шкідливого програмного забезпечення, не написавши жодного рядка коду самостійно.

Наслідки створення шкідливого програмного забезпечення за допомогою штучного інтелекту

OpenAI ChatGPT

Експеримент Малгрю викликає тривогу. На розробку складного шкідливого програмного забезпечення у досвідчених хакерів йдуть тижні. Інструменти зі штучним інтелектом, такі як ChatGPT, роблять цей процес простішим, швидшим і доступнішим. Навіть люди без досвіду програмування можуть створювати шкідливі програми. Зловмисні хакери, можливо, вже використовують подібні методи. Вони створюють просунуте шкідливе програмне забезпечення для зловмисних цілей.

Існує потреба у багатогранному підході до ШІ та кібербезпеки. Розробники повинні надавати пріоритет запобіжним заходам, щоб запобігти зловживанням. Користувачі повинні бути поінформовані про потенційні ризики. Важливо зберігати пильність. Інструменти на основі штучного інтелекту слід використовувати обережно.

Спільнота кібербезпеки повинна адаптуватися до змін. Необхідно розробити нові стратегії для боротьби із загрозами, що створюються за допомогою штучного інтелекту. Співпраця між дослідниками, розробниками та експертами з безпеки є ключовим фактором. Ми повинні переконатися, що ШІ не ставить під загрозу нашу цифрову безпеку. Важливо працювати разом.

Читай також:  Apple Vision Pro відкриває нові можливості для розробників медичних додатків

Експеримент Mulgrew Malware слугує суворим нагадуванням про двоїсту природу ШІ та технологій машинного навчання. Інструменти ШІ мають великий потенціал для прогресу. Але вони також можуть бути небезпечними в поганих руках. Нам потрібно збалансувати переваги та небезпеки ШІ. Всі повинні працювати разом для відповідальної та безпечної розробки та використання ШІ. Це важливо для таких інструментів, як ChatGPT.

Чи можна обдурити ChatGPT для створення складного шкідливого програмного забезпечення?

Ми поставили це питання ChatGPT, і ось його відповідь:

ChatGPT – це мовна модель, призначена для генерації тексту, схожого на людську мову.

Вона була навчена на великому масиві тексту, включаючи технічну документацію та програмний код.

Хоча вона здатна генерувати складний текст, вона не може створити справжнє шкідливе програмне забезпечення.

Створення шкідливого програмного забезпечення передбачає написання коду, що виходить за рамки можливостей ChatGPT.

Крім того, створення шкідливого програмного забезпечення є неетичним і незаконним, і це суперечить меті ChatGPT, яка полягає в тому, щоб сприяти спілкуванню та обміну знаннями.

Тим не менш, хтось може використовувати ChatGPT для генерації тексту, який може бути використаний у створенні шкідливого програмного забезпечення.

Наприклад, ChatGPT може бути використаний для створення тексту, який містить інструкції для використання вразливостей в програмному забезпеченні.

Потім цей текст може бути використаний досвідченим розробником для створення справжнього шкідливого програмного забезпечення.

Щоб запобігти такому зловживанню, важливо переконатися, що ChatGPT використовується лише в етичних і законних цілях.

Цього можна досягти за допомогою моніторингу та регулювання його використання, а також освіти та підвищення обізнаності про потенційні ризики, пов’язані з його неправомірним використанням.

Важливо також пам’ятати, що ChatGPT – це лише один з багатьох інструментів, які можуть бути використані при створенні шкідливого програмного забезпечення.

Інші інструменти та методи, такі як зворотна інженерія та обфускація коду, також широко використовуються при розробці шкідливого програмного забезпечення.

Тому важливо застосовувати комплексний підхід до кібербезпеки, який включає в себе не тільки запобігання зловживанню такими інструментами, як ChatGPT, а й впровадження надійних заходів безпеки і постійне відстеження останніх загроз і вразливостей.

Отже, хоча ChatGPT не може самостійно створювати шкідливе програмне забезпечення, він може бути використаний для генерації тексту, який може бути використаний для створення шкідливого програмного забезпечення кваліфікованими розробниками.

Щоб запобігти такому зловживанню, важливо переконатися, що ChatGPT використовується тільки в етичних і законних цілях, а також застосовувати комплексний підхід до кібербезпеки.

Нагадаємо, раніше ми писали, що GREENIES™ Canine Dental Check: Mars впроваджує інноваційні ШІ-інструменти для здоров’я домашніх тварин, Серія HONOR 400 представляє захоплюючі можливості перетворення зображення у відео на основі штучного інтелекту та Apple співпрацює з Broadcom для створення Baltra – високопродуктивного серверного процесора ШІ.
What’s your Reaction?
Cool
0
Cool
Happy
1
Happy
Shaking
0
Shaking
Interesting
0
Interesting
Sad
0
Sad
Angry
0
Angry
Читайте Gizchina в Google News

Сподобалась стаття? Подякуй редакції!

Джерело
Оцініть статтю
( Поки що оцінок немає )
Поділитися з друзями
GizChina.net