Dj_Taleh

Old User / Hack3r

SOYTARI
Katılım
10 Eki 2016
Tepki puanı
2,574
Rating - 0%
Merhaba, SpyHackerz
Evet ben geldim ama Nasil?
BASLIYORUZ...

anonfile.com'daki her dosya gibi almak için kolay bir numara buldum

Utangaç.

Kolay numara


bağlantı.

arama google Dork:
site: https: //cdn-10.anonfile.com filetype: txt

Kod:
import urllib
from bs4 import BeautifulSoup
import requests

arrlist = ['00', '01', '02', '03', '04', '05', '06', '07', '08', '09', '10', '11', '12', '13', '14', '15', '16', '17', '18', '19', '20', '21', '22', '23', '24', '25', '26', '27', '28', '29']

for i in arrlist:
    url = "https://google.com/search?q=filteype:txt%20site:https://cdn-" + str(i) + ".anonfile.com&num=1000"
        response = requests.get(url)
        soup = BeautifulSoup(response.text, "lxml")
        for g in soup.find_all("a"):
            try:
                response = requests.get(g.get('href')[7:])
                soup = BeautifulSoup(response.text, "lxml")
                link = soup.find("a", {"id": "download-url"}).get('href')
                name = link.split("/")[-1]
                file_name, headers = urllib.request.urlretrieve(link, "data/"+name)
            except:
pass

Bir milyon dolar değerinde gibi ama bedavaya veriyorum...
 
Katılım
2 Eyl 2020
Tepki puanı
1,828
Rating - 0%
Merhaba, SpyHackerz
Evet ben geldim ama Nasil?
BASLIYORUZ...

anonfile.com'daki her dosya gibi almak için kolay bir numara buldum

Utangaç.

Kolay numara


bağlantı.

arama google Dork:
site: https: //cdn-10.anonfile.com filetype: txt

Kod:
import urllib
from bs4 import BeautifulSoup
import requests

arrlist = ['00', '01', '02', '03', '04', '05', '06', '07', '08', '09', '10', '11', '12', '13', '14', '15', '16', '17', '18', '19', '20', '21', '22', '23', '24', '25', '26', '27', '28', '29']

for i in arrlist:
    url = "https://google.com/search?q=filteype:txt%20site:https://cdn-" + str(i) + ".anonfile.com&num=1000"
        response = requests.get(url)
        soup = BeautifulSoup(response.text, "lxml")
        for g in soup.find_all("a"):
            try:
                response = requests.get(g.get('href')[7:])
                soup = BeautifulSoup(response.text, "lxml")
                link = soup.find("a", {"id": "download-url"}).get('href')
                name = link.split("/")[-1]
                file_name, headers = urllib.request.urlretrieve(link, "data/"+name)
            except:
pass

Bir milyon dolar değerinde gibi ama bedavaya veriyorum...
Eline sağlık
 
Katılım
15 Ara 2019
Tepki puanı
1
Rating - 0%
sanırım bir kaç yerde hata var kodlamada yada ben tam derleyemedim.
Google arama dork olduğu için bir yerden sonra hata verdiriyor program
 
Katılım
14 Eki 2019
Tepki puanı
2
Rating - 0%
nasıl yapılacağınıda yazsaydınız keşke
dork birşey bulmuyor
kod nasıl yapılacak
 

feartakva 

Amcı Kurt
Katılım
26 Tem 2020
Tepki puanı
9,173
Konum
Security
Rating - 100%
Merhaba, SpyHackerz
Evet ben geldim ama Nasil?
BASLIYORUZ...

anonfile.com'daki her dosya gibi almak için kolay bir numara buldum

Utangaç.

Kolay numara


bağlantı.

arama google Dork:
site: https: //cdn-10.anonfile.com filetype: txt

Kod:
import urllib
from bs4 import BeautifulSoup
import requests

arrlist = ['00', '01', '02', '03', '04', '05', '06', '07', '08', '09', '10', '11', '12', '13', '14', '15', '16', '17', '18', '19', '20', '21', '22', '23', '24', '25', '26', '27', '28', '29']

for i in arrlist:
    url = "https://google.com/search?q=filteype:txt%20site:https://cdn-" + str(i) + ".anonfile.com&num=1000"
        response = requests.get(url)
        soup = BeautifulSoup(response.text, "lxml")
        for g in soup.find_all("a"):
            try:
                response = requests.get(g.get('href')[7:])
                soup = BeautifulSoup(response.text, "lxml")
                link = soup.find("a", {"id": "download-url"}).get('href')
                name = link.split("/")[-1]
                file_name, headers = urllib.request.urlretrieve(link, "data/"+name)
            except:
pass

Bir milyon dolar değerinde gibi ama bedavaya veriyorum...
Reis Konu Sana mı Ait ? :D
 
Katılım
17 Haz 2020
Tepki puanı
3
Rating - 0%
Merhaba, SpyHackerz
Evet ben geldim ama Nasil?
BASLIYORUZ...

anonfile.com'daki her dosya gibi almak için kolay bir numara buldum

Utangaç.

Kolay numara


bağlantı.

arama google Dork:
site: https: //cdn-10.anonfile.com filetype: txt

Kod:
import urllib
from bs4 import BeautifulSoup
import requests

arrlist = ['00', '01', '02', '03', '04', '05', '06', '07', '08', '09', '10', '11', '12', '13', '14', '15', '16', '17', '18', '19', '20', '21', '22', '23', '24', '25', '26', '27', '28', '29']

for i in arrlist:
    url = "https://google.com/search?q=filteype:txt%20site:https://cdn-" + str(i) + ".anonfile.com&num=1000"
        response = requests.get(url)
        soup = BeautifulSoup(response.text, "lxml")
        for g in soup.find_all("a"):
            try:
                response = requests.get(g.get('href')[7:])
                soup = BeautifulSoup(response.text, "lxml")
                link = soup.find("a", {"id": "download-url"}).get('href')
                name = link.split("/")[-1]
                file_name, headers = urllib.request.urlretrieve(link, "data/"+name)
            except:
pass

Bir milyon dolar değerinde gibi ama bedavaya veriyorum...
eyw bro
 
Katılım
23 Eyl 2020
Tepki puanı
11,152
Rating - 0%
Merhaba, SpyHackerz
Evet ben geldim ama Nasil?
BASLIYORUZ...

anonfile.com'daki her dosya gibi almak için kolay bir numara buldum

Utangaç.

Kolay numara


bağlantı.

arama google Dork:
site: https: //cdn-10.anonfile.com filetype: txt

Kod:
import urllib
from bs4 import BeautifulSoup
import requests

arrlist = ['00', '01', '02', '03', '04', '05', '06', '07', '08', '09', '10', '11', '12', '13', '14', '15', '16', '17', '18', '19', '20', '21', '22', '23', '24', '25', '26', '27', '28', '29']

for i in arrlist:
    url = "https://google.com/search?q=filteype:txt%20site:https://cdn-" + str(i) + ".anonfile.com&num=1000"
        response = requests.get(url)
        soup = BeautifulSoup(response.text, "lxml")
        for g in soup.find_all("a"):
            try:
                response = requests.get(g.get('href')[7:])
                soup = BeautifulSoup(response.text, "lxml")
                link = soup.find("a", {"id": "download-url"}).get('href')
                name = link.split("/")[-1]
                file_name, headers = urllib.request.urlretrieve(link, "data/"+name)
            except:
pass

Bir milyon dolar değerinde gibi ama bedavaya veriyorum...
 
131,461Konular
3,268,357Mesajlar
315,201Kullanıcılar
Üst Alt