Yorum Satırlarından Bilgi İfşası

Sızma testlerinde yorum satırlarından bilgi ifşası, yaygın bir güvenlik açığıdır. Yorum satırları, web uygulamalarının kaynak kodlarında yazılmış açıklamalar veya notlar içerir. Bu yorumlar, web uygulamasının geliştirilmesi veya bakımı sırasında yazılmış olabilir.

Ancak, yorum satırları, bir saldırganın web uygulaması hakkında bilgi toplamasına yardımcı olabilir. Örneğin, yorum satırları, web uygulamasının arkasındaki veritabanı veya sunucu hakkında bilgi verebilir veya uygulamanın içindeki önemli kod parçalarını açıklayabilir.

Sızma testlerinde yorum satırlarından bilgi ifşası, saldırganların hedef sistem veya uygulama hakkında önemli bilgiler elde etmelerine yardımcı olabilir. Bu nedenle, sızma testleri sırasında yorum satırları dahil olmak üzere web uygulamasının kaynak kodları ve diğer bileşenleri dikkatlice incelenmelidir.

Bir sızma testi sırasında yorum satırlarından bilgi ifşası tespit edilirse, bu bilgi saldırganların eline geçebileceği için, geliştiricilere hemen bildirilmelidir. Bu şekilde, açığın kapatılması ve bilgilerin saldırganların eline geçmesi önlenir.

PYTHON KODU

import requests
from bs4 import BeautifulSoup
from bs4.element import Comment
from urllib.parse import urlparse, urljoin

# Web sitesinin ana URL'si
base_url = "https://www.example.com"

# Ana sayfanın URL'sini belirtin
url = base_url

# Ziyaret edilen URL'leri izlemek için bir küme oluşturun
visited_urls = set()

# Tüm ziyaret edilmiş URL'leri izlemek için bir dosya oluşturun
with open('ziyaret_edilen_url.txt', 'w') as f:
    f.write(url + '\n')

# Tüm yorum satırlarını bulmak için bir fonksiyon tanımlayın
def find_comments(url, soup):
    # Tüm yorum satırlarını bulun ve dosyaya yazdırın
    with open('yorumlar.txt', 'a') as file:
        comments = soup.find_all(string=lambda text: isinstance(text, Comment))
        for comment in comments:
            file.write(url + ': ')
            file.write(comment)
            file.write('\n')

# Ana sayfadan başlayarak tüm bağlantıları ziyaret edin
while True:
    # Web sayfasının HTML kodunu getirin
    response = requests.get(url)
    html_content = response.content

    # BeautifulSoup kütüphanesi ile HTML kodunu ayrıştırın
    soup = BeautifulSoup(html_content, 'html.parser')

    # Yorumları bulun ve dosyaya kaydedin
    find_comments(url, soup)

    # Tüm bağlantıları bulun
    links = soup.find_all('a', href=True)

    # Tüm bağlantıları ziyaret edin
    for link in links:
        # Bağlantının tam URL'sini oluşturun
        link_url = urljoin(base_url, link.get('href'))

        # Sadece belirtilen domain içindeki bağlantıları ziyaret edin
        if urlparse(link_url).netloc == urlparse(base_url).netloc:

            # Eğer bağlantı daha önce ziyaret edilmediyse, ziyaret edin ve ziyaret edilen URL'leri dosyaya kaydedin
            if link_url not in visited_urls:
                visited_urls.add(link_url)
                with open('ziyaret_edilen_url.txt', 'a') as f:
                    f.write(link_url + '\n')
                url = link_url
                break
    else:
        break

Bu kodla, önce ana domain adresindeki tüm linkler alınır ve bir liste içinde saklanır. Daha sonra her bir linke tek tek istek atılır ve yorumlar kontrol edilir. 

Bu kod, herhangi bir alt sayfada yeni linkler bulunursa bu linklere de istek atacak ve yorumları kontrol edecektir.

0 0 votes
Eğitimi Derecelendir
Subscribe
Bildir
0 Yorum
Inline Feedbacks
View all comments
0
Lütfen bu eğitimle ilgili yorumunuzu bırakınx