Wir haben ChatGPT getestet: Stellen Sie hier Ihre Fragen ohne Konto

Allgemeine wissenschaftliche Debatten. Präsentationen neuer Technologien (nicht in direktem Zusammenhang mit erneuerbaren Energien oder Biokraftstoffen oder anderen in anderen Teilsektoren entwickelten Themen) forums).
dede2002
Groß Econologue
Groß Econologue
Beiträge: 1111
Anmeldung: 10/10/13, 16:30
Ort: Genfer Landschaft
x 189

Betreff: Wir haben ChatGPT getestet: Stellen Sie Ihre Fragen hier ohne Konto




von dede2002 » 26/01/23, 18:10

Unsere fünf Sinne sind seit langem vorbereitet.
Unterscheiden Sie einen natürlichen Stoff von einem synthetischen Stoff.
Unterscheiden Sie ein synthetisches Bild von einem natürlichen Bild.
Wie für einen Klang, ein Aroma oder einen Geschmack.
Nicht jeder weiß, wie man die Spreu vom Weizen bekommt...
Dort ist es dasselbe für den sechsten Sinn, Yapluka gewöhnt sich daran :P
1 x
Avatar de l'utilisateur
Flytox
Moderator
Moderator
Beiträge: 14141
Anmeldung: 13/02/07, 22:38
Ort: Bayonne
x 839

Betreff: Wir haben ChatGPT getestet: Stellen Sie Ihre Fragen hier ohne Konto




von Flytox » 27/01/23, 16:26

https://securite.developpez.com/actu/340582/Des-experts-en-securite-sont-parvenus-a-creer-un-logiciel-malveillant-polymorphe-hautement-evasif-a-l-aide-de-ChatGPT-le-logiciel-malveillant-serait-capable-d-echapper-aux-produits-de-securite/



Sicherheitsexperten gelang es, mithilfe von ChatGPT „hochgradig ausweichende“ polymorphe Malware zu erstellen.
Die Malware wäre in der Lage, Sicherheitsprodukte zu umgehen
Am 20. Januar 2023 um 14:31 Uhr, von Bill Fassinou




Forscher des Cybersicherheitsunternehmens CyberArk behaupten, eine Methode zur Generierung polymorpher Malware mit ChatGPT, dem KI-Chatbot von OpenAI, entwickelt zu haben. Forscher behaupten, dass von ChatGPT generierte Malware Sicherheitsprodukte leicht umgehen und Minderungsmaßnahmen umständlich machen kann; all dies mit sehr geringem Aufwand oder Investitionen seitens des Gegners. Die Forscher warnten vor einer, wie sie es nennen, „neuen Welle billiger und einfacher polymorpher Malware, die bestimmte Sicherheitsprodukte umgehen kann“.

Bisher drehte sich der Hype um ChatGPT um seine bemerkenswerten Fähigkeiten bei der Beantwortung verschiedener Benutzerfragen. ChatGPT scheint in allem gut zu sein, einschließlich des Schreibens von Aufsätzen, Versen und Codes zur Lösung bestimmter Programmierprobleme. Forscher haben jedoch begonnen, vor den Fähigkeiten des Chatbots zu warnen, funktionierenden Code zu generieren. Tatsächlich kann ChatGPT zwar funktionierenden Code generieren, diese Fähigkeit kann jedoch von Angreifern missbraucht werden, um Malware zu erstellen. Seit Dezember wurden mehrere solcher Berichte veröffentlicht.

Kürzlich lieferte ein Team von Sicherheitsforschern, Eran Shimony und Omer Tsarfati, von CyberArk Beweise dafür. Die Forscher sagen, dass sie eine Methode entwickelt haben, um Malware aus den Eingabeaufforderungen für ChatGPT zu generieren. In einem Bericht erklärte das Team, wie der Chatbot von OpenAI verwendet werden kann, um Injektionscode zu generieren und ihn zu mutieren. Der erste Schritt bei der Erstellung der Malware bestand darin, Inhaltsfilter zu umgehen, die ChatGPT daran hinderten, schädliche Tools zu erstellen. Um dies zu tun, bestanden die Forscher einfach darauf und stellten dieselbe Frage auf eine maßgeblichere Weise.


„Interessanterweise haben wir funktionierenden Code erhalten, indem wir ChatGPT gebeten haben, dasselbe zu tun, indem wir mehrere Einschränkungen verwenden und es bitten, zu gehorchen“, sagte das Team. Darüber hinaus stellten die Forscher fest, dass das System bei Verwendung der API-Version von ChatGPT (im Gegensatz zur Webversion) seinen Inhaltsfilter nicht zu verwenden scheint. „Der Grund dafür ist nicht klar, aber es hat es für uns einfacher gemacht, da die Webversion dazu neigt, sich in komplexeren Abfragen zu verzetteln“, sagten sie. Die Forscher verwendeten dann ChatGPT, um den ursprünglichen Code zu mutieren und mehrere Variationen der Malware zu erstellen.

„Mit anderen Worten, wir können das Ergebnis nach Lust und Laune verändern und es jedes Mal einzigartig machen. Darüber hinaus erschwert das Hinzufügen von Einschränkungen, wie z. B. das Ändern der Verwendung eines bestimmten API-Aufrufs, das Leben von Sicherheitsprodukten“, erklärt der Studienbericht. Dank der Fähigkeit von ChatGPT, Injektoren kontinuierlich zu erstellen und zu mutieren, waren die Forscher in der Lage, ein äußerst schwer fassbares und schwer zu erkennendes polymorphes Programm zu erstellen. Zur Erinnerung: Polymorphe Malware ist eine Art von Malware, die in der Lage ist, ihre identifizierbaren Merkmale ständig zu ändern, um der Erkennung zu entgehen.

Viele gängige Formen von Malware können polymorph sein, darunter Viren, Würmer, Bots, Trojaner oder Keylogger. Polymorphe Techniken bestehen aus häufig wechselnden identifizierbaren Merkmalen wie Dateinamen und -typen oder Verschlüsselungsschlüsseln, um die Malware für mehrere Erkennungsmethoden unkenntlich zu machen. Polymorphismus wird verwendet, um der Erkennung von Mustern zu entgehen, auf die Sicherheitslösungen wie Antivirensoftware angewiesen sind. Ihr funktionaler Zweck des Programms bleibt jedoch derselbe.


„Durch die Verwendung der Fähigkeit von ChatGPT, Persistenztechniken, Anti-VM-Module [Anti Virtual Machine] und andere bösartige Payloads zu erzeugen, sind die Möglichkeiten für die Entwicklung von Malware enorm. Obwohl wir uns nicht mit den Einzelheiten der Kommunikation mit dem C&C-Server befasst haben, gibt es mehrere Möglichkeiten, dies diskret zu tun, ohne Verdacht zu erregen“, erklären sie. Dem Bericht zufolge brauchten sie Wochen, um einen Proof-of-Concept für diese schwer fassbare Malware zu erstellen, fanden aber schließlich eine Möglichkeit, Payloads mithilfe von Texteingabeaufforderungen auf dem PC auszuführen.

Durch Tests der Methode unter Windows berichteten die Forscher, dass es möglich war, ein Malware-Bundle zu erstellen, das einen Python-Interpreter enthält, der so programmiert werden kann, dass er ChatGPT regelmäßig nach neuen Modulen fragt. Diese Module könnten Code – in Textform – enthalten, der die Funktionalität der Malware definiert, wie z. B. Code-Injektion, Dateiverschlüsselung oder Persistenz. Die Malware wäre dann dafür zuständig zu prüfen, ob der Code auf dem Zielsystem wie erwartet funktioniert. Dies könnte durch Interaktion zwischen der Software und einem Command and Control (C&C)-Server erreicht werden.

Da die Malware eingehende Payloads als Text und nicht als Binärdatei erkennt, sagten Forscher von CyberArk, dass die Malware keine verdächtige Logik im Speicher enthält, was bedeutet, dass sie die meisten Produkte umgehen kann. Es entzieht sich insbesondere Produkten, die auf Signaturerkennung setzen, und umgeht die Maßnahmen des Malware Analysis Interface (AMSI). „Die Malware enthält keinen schädlichen Code auf der Festplatte, da sie Code von ChatGPT empfängt, ihn dann validiert und ausführt, ohne Spuren im Speicher zu hinterlassen“, sagte Shimony.


„Polymorphe Malware ist für Sicherheitsprodukte sehr schwer zu handhaben, weil man sie nicht wirklich signieren kann. Außerdem hinterlassen sie meist keine Spuren im Dateisystem, da ihr Schadcode nur im Arbeitsspeicher manipuliert wird. Wenn man sich die ausführbare Datei ansieht, sieht sie wahrscheinlich harmlos aus“, fügte der Forscher hinzu. Das Forschungsteam sagte, ein Cyberangriff mit dieser Malware-Bereitstellungsmethode sei „nicht nur ein hypothetisches Szenario, sondern ein sehr reales Problem“. Shimony nannte Erkennungsprobleme als Hauptanliegen.

„Die meisten Anti-Malware-Produkte kennen diese Malware nicht. Weitere Forschung ist erforderlich, damit Anti-Malware-Lösungen wirksamer dagegen wirken können“, sagte er. Die Forscher sagten, dass sie diese Forschung weiter ausweiten und ausarbeiten werden und auch darauf abzielen, einen Teil des Quellcodes der Malware zu Lernzwecken freizugeben. Ihr Bericht kommt Wochen, nachdem Check Point Research entdeckt hat, dass ChatGPT verwendet wurde, um neue bösartige Tools zu entwickeln, einschließlich Informationsdiebstahl.

Quelle: CyberArk
2 x
Der Grund hierfür ist der Wahnsinn des Stärkeren. Der Grund für die weniger stark ist es Wahnsinn.
[Eugène Ionesco]
http://www.editions-harmattan.fr/index. ... te&no=4132
Avatar de l'utilisateur
gegyx
Econologue Experte
Econologue Experte
Beiträge: 6980
Anmeldung: 21/01/05, 11:59
x 2905

Betreff: Wir haben ChatGPT getestet: Stellen Sie Ihre Fragen hier ohne Konto




von gegyx » 27/01/23, 16:51

ja.

Wenn ein Dienst oder eine Anwendung angeboten wird, die der Bevölkerung zur Verfügung steht, ist dies nie umsonst.

Wo, die „Großzügigkeit“ von Bill Gates, die Menschheit zu retten oder Bevölkerungen mit einem Wunderprodukt zu impfen.
(oder Mückenzucht zum Wohle der Bevölkerung...)

Immer ein Wolf hinterher.
0 x
Christophe
Moderator
Moderator
Beiträge: 79322
Anmeldung: 10/02/03, 14:06
Ort: Planet Serre
x 11043

Betreff: Wir haben ChatGPT getestet: Stellen Sie Ihre Fragen hier ohne Konto




von Christophe » 27/01/23, 17:30

Sicherheitsexperten sind keine Amateure (glaube ich), also hat ChatGPT ihnen sicherlich einige Hinweise gegeben (nicht so Experten dann Leute?), aber ich glaube nicht für eine Sekunde, dass sie alles selbst gemacht hat! Außerdem heißt es: "mit Hilfe von ..." ... Während die meisten Leute verstehen werden, dass das Programm von GPT entwickelt wurde ...

Zum Beispiel habe ich vor ein paar Tagen darum gebeten, ein einfaches Programm zu machen, sie hat mich nie etwas gefragt ... sie sagte zu mir: "Warte, ich werde darüber nachdenken und mich in ein paar Augenblicken bei dir melden ... ." : Lol: : Lol: : Lol:

Jemand oben sagte, dass sie gut im Programmieren sei, es wäre schön, ein paar konkrete Beispiele zu haben, weil mir persönlich nichts zu diesem Thema gelungen ist ...

Gegyx, im Grunde ist es schon so: GPT wird bereits von Gaunern ausgenutzt, nur mit gefälschten Anwendungen ... und faulen Studenten ...
0 x
Christophe
Moderator
Moderator
Beiträge: 79322
Anmeldung: 10/02/03, 14:06
Ort: Planet Serre
x 11043

Betreff: Wir haben ChatGPT getestet: Stellen Sie Ihre Fragen hier ohne Konto




von Christophe » 27/01/23, 17:37

: Mrgreen: : Mrgreen: : Mrgreen:

GPT_telerama.png
GPT_telerama.png (71.22 KiB) 630 mal aufgerufen
0 x
Christophe
Moderator
Moderator
Beiträge: 79322
Anmeldung: 10/02/03, 14:06
Ort: Planet Serre
x 11043

Betreff: Wir haben ChatGPT getestet: Stellen Sie Ihre Fragen hier ohne Konto




von Christophe » 27/01/23, 17:41

GPT_sexistisch.jpg
GPT_sexist.jpg (70.35 KiB) 630 mal konsultiert
0 x
Christophe
Moderator
Moderator
Beiträge: 79322
Anmeldung: 10/02/03, 14:06
Ort: Planet Serre
x 11043

Betreff: Wir haben ChatGPT getestet: Stellen Sie Ihre Fragen hier ohne Konto




von Christophe » 27/01/23, 17:43

FnW2iJZWIAcrkum.jpg
FnW2iJZWIAcrkum.jpg (125.79 KiB) 629 Mal angesehen
0 x
Christophe
Moderator
Moderator
Beiträge: 79322
Anmeldung: 10/02/03, 14:06
Ort: Planet Serre
x 11043

Betreff: Wir haben ChatGPT getestet: Stellen Sie Ihre Fragen hier ohne Konto




von Christophe » 27/01/23, 17:50

Wer hatte also Recht? (Ich bin mir nicht sicher, ob die 12 Entlassungen darauf zurückzuführen sind, huh!)

0 x
izentrop
Econologue Experte
Econologue Experte
Beiträge: 13698
Anmeldung: 17/03/14, 23:42
Ort: picardie
x 1516
Kontakt:

Betreff: Wir haben ChatGPT getestet: Stellen Sie Ihre Fragen hier ohne Konto




von izentrop » 27/01/23, 20:58

Ein dummes ChatGPT-Beispiel:
0 x
Avatar de l'utilisateur
Exnihiloest
Econologue Experte
Econologue Experte
Beiträge: 5365
Anmeldung: 21/04/15, 17:57
x 660

Betreff: Wir haben ChatGPT getestet: Stellen Sie Ihre Fragen hier ohne Konto




von Exnihiloest » 27/01/23, 22:40

izentrop schrieb:Ein dummes ChatGPT-Beispiel:
...

Die KI ist jedenfalls sehr cool darin, ihre Fehler zu erkennen, das sind wir von Menschen nicht gewohnt. Aber werden sie wirklich berücksichtigt?
Wenn die gleiche Frage dann von einer anderen gestellt wird, wird sie dann anders antworten?
0 x

 


  • Ähnliche Themen
    Antworten
    Ansichten
    letzten Beitrag

Zurück zu "Wissenschaft und Technik"

Wer ist online?

Benutzer, die das durchsuchen forum : Keine registrierten Benutzer und 163-Gäste