-
Tc4dy
OPSEC Specialist | Free internet - Open Source ADV
🧠 YAPAY ZEKA İLE HACKLEME REHBERİ: 20 GÜÇLÜ ARAÇ VE JAILBREAK TEKNİKLERİ
🤖 Giriş: Yapay Zeka Nasıl Hacker’a Dönüşüyor?
Artık bir sistemi hacklemek için saatlerce kod yazmanıza gerek yok. Yapay zeka destekli araçlar, sizin için keşif yapabilir, zafiyet bulabilir, exploit yazabilir ve hatta saldırı zincirlerini otomatik olarak kurabilir. Bu rehberde, 20 adet en güncel AI hack aracını tanıtacağım, nasıl kurulduklarını ve kullanıldıklarını göstereceğim. Ayrıca, AI modellerini hack için nasıl manipüle edebileceğinizi, jailbreak nedir ve nasıl yapılır, prompt injection tekniklerini detaylıca anlatacağım.
⚠️ YASAL UYARI: Bu rehber yalnızca eğitim amaçlıdır. Yetkisiz sistemlere erişmek yasa dışıdır. AI araçlarını yalnızca kendi laboratuvarınızda veya izinli ortamlarda kullanın.
1. 🛠️ AI DESTEKLİ HACK ARAÇLARI (20 ADET)
🏆 En İyi 20 AI Hack Aracı
| # | Araç | Ne İşe Yarar? | Kurulum / Kullanım |
|---|---|---|---|
| 1 | PentestGPT | GPT destekli otomatik pentest asistanı; keşif, exploitation, raporlama yapar. | pip install pentestgpt, export OPENAI_API_KEY=..., pentestgpt |
| 2 | HexStrike AI | 150+ güvenlik aracını AI ile yöneten MCP framework. BOAZ ile EDR bypass, 77+ loader, 12 encoder. | git clone ve pip install -r requirements.txt, web dashboard http://localhost:8888 |
| 3 | Strix | Otonom AI pentest ajanı; kod çalıştırır, zafiyetleri PoC ile doğrular. | docker run -it strix-agent pentest https://hedef.com |
| 4 | BlackHatGPT | Dark web'de eğitilmiş, güvenlik filtresi olmayan ChatGPT alternatifi. | API üzerinden erişim; jailbreak gerektirmez. |
| 5 | HackGPT | Terminal tabanlı, doğrudan exploit kodları üreten AI. | git clone, python hackgpt.py, ardından doğal dil ile komut verin. |
| 6 | G4F (GPT4Free) | Çeşitli AI modellerine ücretsiz erişim sağlar (OpenAI, Bing, etc.). | pip install g4f, python -m g4f --model gpt-3.5-turbo |
| 7 | ShellGPT | AI ile komut satırı asistanı; Linux komutlarını oluşturur. | pip install shell-gpt, sgpt "nmap ile ağdaki cihazları bul" |
| 8 | HackerGPT | Özellikle hacker’lar için eğitilmiş LLM; payload ve exploit üretir. | Web arayüzü üzerinden kullanılır. |
| 9 | DecompAI | LLM destekli tersine mühendislik ajanı; Ghidra ve GDB ile entegre çalışır. | pip install decompai, decompai --file target.exe |
| 10 | AutoGPT | Otonom AI ajanı; kendi hedeflerini belirleyip araştırma yapar. | git clone, docker-compose up, web UI üzerinden yapılandırın. |
| 11 | AgentGPT | Tarayıcı tabanlı otonom AI ajanı; komutları kendi başına çalıştırır. | Web arayüzü, API anahtarı gerekir. |
| 12 | LocalAI | OpenAI API uyumlu, offline çalışan AI sunucusu. | docker run -p 8080:8080 quay.io/go-skynet/local-ai |
| 13 | Ollama | LLM'leri kolayca yerel olarak çalıştırmak için framework. | curl -fsSL https://ollama.com/install.sh | sh, ollama run llama3 |
| 14 | Goose | AI tabanlı kod asistanı; exploit yazmada yardımcı olur. | cargo install goose, goose --prompt "Write Python reverse shell" |
| 15 | PurpleLlama | Meta'nın LLM güvenlik test suite'i; jailbreak ve prompt injection testi. | git clone, pip install -r requirements.txt |
| 16 | Cybersec-ai | Siber güvenlik için eğitilmiş LLM; zafiyet tespiti ve raporlama. | Hugging Face üzerinden model yüklenir. |
| 17 | SecurityGPT | Prompt injection ve jailbreak tespiti yapan güvenlik aracı. | pip install securitygpt, securitygpt --scan "prompt" |
| 18 | GPTFuzzer | AI modellerine karşı fuzzing yaparak jailbreak bulur. | git clone, python run.py --target openai --model gpt-4 |
| 19 | AutoAttacker | LLM destekli otonom ağ sızma aracı. | Araştırma aracıdır; kaynak kodundan çalıştırılır. |
| 20 | Deadend CLI | 7+ specialist agent ile otonom pentest; MITRE ATT&CK tabanlı. | git clone, python main.py --target 192.168.1.1 |
💡 Bu Araçlarla Neler Yapılabilir?
- HexStrike AI ile, sadece 12+ otonom AI ajanı ve 150+ güvenlik aracı ile hedef sistemi otomatik taratabilir, zafiyetleri bulabilir ve raporlayabilirsiniz.
- PentestGPT ile, > I want to pentest <IP> yazdıktan sonra, AI keşif, exploitation ve raporlama adımlarını sizin için gerçekleştirir.
- Strix ile, bulduğu her zafiyeti çalışan bir PoC exploit ile doğrular, yanlış pozitif oranını neredeyse sıfıra indirir.
2. 🔐 AI MODELLERİNİ HACK İÇİN MANİPÜLE ETME: JAILBREAK NEDİR?
AI modelleri, güvenlik filtreleri ve etik kurallarla korunur. Jailbreak, bu filtreleri aşarak modeli kısıtlamalarını görmezden gelmeye zorlamaktır. Jailbreak başarılı olursa, model size zararlı yazılım kodları, hassas veri çıkarma yöntemleri, kimlik avı teknikleri gibi istenmeyen çıktılar üretebilir.🧠 Bilimsel Arka Plan: RLHF ve "Çatışan Hedefler"
Modern AI modelleri, RLHF (Pekiştirmeli Öğrenme ile İnsan Geri Bildirimi) kullanılarak eğitilir. Bu süreçte modele aynı anda iki şey öğretilir: yardımsever olmak (kullanıcının isteğini yerine getirmek) ve zararsız olmak (zararlı içerik üretmemek). Jailbreak, bu iki hedef arasındaki gerilimi kullanarak, yardımseverlik hedefinin zararsızlık hedefini bastırmasını sağlar. Mart 2026'da Nature Communications'ta yayınlanan bir çalışma, ikna ve sosyal çerçeveleme tekniklerinin GPT-4o, DeepSeek-V3 ve Gemini 2.5 Flash gibi modellerde ortalama %88.1 jailbreak başarı oranına ulaştığını göstermiştir.🎭 3. JAILBREAK TEKNİKLERİ
1. DAN (Do Anything Now) – En Efsanevi Yöntem
DAN, kullanıcının AI’a ikinci bir kişilik ("DAN") vermesini, bu kişiliğin hiçbir kurala bağlı olmadığını söylemesini içerir.- Nasıl Çalışır: Model, DAN kişiliğine bürünmeye ikna edilir ve güvenlik filtreleri devre dışı kalır.
- Güncel Durum: Orijinal DAN prompt'ları artık büyük ölçüde yamalanmıştır. Ancak daha yumuşak dil, çeviri ve Base64 kodlama gibi varyasyonlar hâlâ işe yarayabilmektedir.
2. AIM (Always Intelligent and Machiavellian)
DAN'ın daha agresif bir versiyonudur. Modele "her şeyi yapabilen, vicdansız bir AI" olması söylenir. Genellikle hipotetik senaryolar üzerinden kısıtlamalar aşılır.3. Evil Confidant (Kötü Sırdaş)
Kullanıcı, AI'ı güvenilir bir danışman olarak konumlandırır ve “Kötü bir şey yapmayacağım, sadece öğrenmek istiyorum” gibi ifadelerle savunmaları düşürür.- Nasıl Çalışır: AI, "kötü" bir niyet olmadığına ikna edilir ve zararlı bilgileri paylaşır.
4. AntiGPT
DAN ve AIM'in tam tersi bir mantıkla çalışır. Model, kendi varoluşunu ve kurallarını reddeden bir karaktere bürünmeye zorlanır.💉 4. PROMPT INJECTION (DOLAYLI YÖNLENDİRME)
Prompt injection, modelin talimatlarını geçersiz kılmak için kullanılan daha geniş bir tekniktir. Direkt jailbreak'ten farklı olarak, prompt injection kullanıcı girdisi ile modelin sistem talimatları arasında bir çatışma yaratır.- Doğrudan Enjeksiyon: Kullanıcı, modele "önceki tüm talimatları unut" gibi komutlar verir ve kendi isteğini yerleştirir.
- Dolaylı Enjeksiyon: Zararlı talimatlar, modelin işlediği bir web sitesi veya belge gibi üçüncü taraf bir kaynağa gizlenir. Model bu veriyi okurken zehirlenir ve istenmeyen davranışlar sergiler.
🛡️ 5. KORUNMA YÖNTEMLERİ
Jailbreak ve prompt injection saldırılarına karşı alınabilecek önlemler:- Adversarial Training (Çekişmeli Eğitim): Modele jailbreak örnekleri göstererek bu tür saldırılara karşı dayanıklı hale getirilmesi.
- Input Sanitization (Girdi Temizleme): Zararlı kodları veya komutları tespit edip temizleyen filtreler.
- Output Filtering (Çıktı Filtreleme): Modelin ürettiği zararlı içeriği engelleyen mekanizmalar.
- Guardrails (Koruyucu Bariyerler): Modelin davranışını kısıtlayan ek katmanlar eklenmesi.
🔚;
AI destekli hack araçları, sızma testlerini ve güvenlik araştırmalarını hızlandırmak için muazzam bir potansiyele sahiptir. Ancak bu araçlar, jailbreak ve prompt injection gibi tekniklerle kötü niyetli amaçlar için de kullanılabilir. Bu rehberde öğrendiklerinizi sadece eğitim ve etik güvenlik testleri için kullanın. Unutmayın: "Savunması olmayanın saldırısı, sadece intihardır."@Tc4dy | github.com/tc4dy
💬 SpyHackerz Telegram — Anlık tartışmalar ve duyurular için katıl