24 декабря Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!
Есть такой сайтец как вап сасиса, олды наверняка знают его, на этом сайте имеется ДОХУЯ фотоконтента
Есть такой сайтец как вап сасиса, олды наверняка знают его, на этом сайте имеется ДОХУЯ фотоконтента любительского содержания и причем много эксклюзивного. Как понимаю, раньше там обменивались фотками своих жен примерно в 2010-2019 год ВОПРОС к погромист-кунам! Как спарсить все фотографии с хостинга? Там имеется уебищная мобильная верстка html говна, которое надо постоянно тыкать на кнопку Скачать оригинал Короче нужна помощь, как это сука сделать, я уверен что можно через api выйти на хост где можно схоронить тонну этого контента чтобы передать потомкам Поддержите пожалуйста тред анонче! без говняка, просто по человечески жалко контент который в одночасье может пропасть с нихуя...
>>313011554 (OP) когда нейронкодауны займутся реальными проблемами? когда сделают нейронку с базой шлюх, типо загружаешь фото своей еот или "ЕЕ КОМНАТЫ собаки хуя пятки левой" и нейронка выдает тебе тот самый пак где он позировала ашоту с хуем во рту или те фотки на даче где она в бане с максалбеком ебалась и пила сочу литрами это ведь просто огромные есть базы домашней порнухи это реальные наташки орксанки и мадинки слитые в сеть ведь любой контент попадает туда дак научите нейронку находить шлюх блять...назовите шлюхосканер..еотову загружаешь и тебе выдает пак с её участием
>>313012211 будь добр, сделай форму по которой можно хотяб по альбомам скачать, вы же все тут пиздатые наносеки я в погромировании не силен, на уровне найти среди кода ссылки на фото или видео способен
>>313011637 import os import requests from bs4 import BeautifulSoup
# Настройки BASE_URL = "https://s.sasisa.me/" # Замени на корректный URL OUTPUT_DIR = "downloaded_photos" # Папка для сохранения фото
# Создаем папку для сохранения фотографий if not os.path.exists(OUTPUT_DIR): os.makedirs(OUTPUT_DIR)
# Функция для скачивания фотографии def download_photo(url, filename): try: response = requests.get(url, stream=True) if response.status_code == 200: filepath = os.path.join(OUTPUT_DIR, filename) with open(filepath, 'wb') as file: for chunk in response.iter_content(1024): file.write(chunk) print(f"Скачано: {filename}") else: print(f"Ошибка при скачивании: {url}") except Exception as e: print(f"Ошибка: {e}")
# Парсинг страницы def scrape_photos(url): try: response = requests.get(url) if response.status_code != 200: print(f"Не удалось загрузить страницу: {url}") return
soup = BeautifulSoup(response.text, 'html.parser') # Находим все ссылки на фотографии photo_links = soup.find_all('a', href=True)
for link in photo_links: if "original" in link['href']: # Фильтруем ссылки, если нужно photo_url = BASE_URL + link['href'] if not link['href'].startswith('http') else link['href'] filename = os.path.basename(photo_url) download_photo(photo_url, filename)
except Exception as e: print(f"Ошибка парсинга: {e}")
# Главный процесс if __name__ == "__main__": # Укажи начальную страницу, с которой нужно начинать start_url = BASE_URL + "index.html" # Заменить на нужный URL scrape_photos(start_url)
>>313011554 (OP) Если не хочешь программировать, то попробуй погуглить ручную автоматизацию браузера. Есть ZennoPoster, BAS и Automa. Еще есть вариант заказать на FL у фрилансеров, уверен они даже за 500 рублей будут готовы взяться.
>>313012575 >>313012547 >>313012419 ребятки, сделайте оболочку простую чтобы можно было качать альбомом, реально готов скинуть 500 рэ с пруфами, я уверен что не займет это дело и 20 минут вам, эх!
Сука, нашел фотки где мужик ебет жену между сисек и кончает прямо на крестик. Немного в ахуе, нахуя так делать и зачем она это позволяет, если верующая
>>313012828 Ты сам себе это придумал? Если ты не бухаешь, у тебя есть работа - то это уже вин для нее в наше то время. Конечно стейси 10 из 10 не светит, но обычную вполне найдешь
>>313012789 Верой тут и не пахнет, over 90% людей, утверждающих о своей религиозности, соблюдают лишь несложную внешнюю атрибутику предписанной им их религией, лицемерие особо ярко видно к примеру у высоких санов церкви, вплоть до митрополитов и пап римских, в библии чётко написано нести слово божье, где его не услышали, но что-то не видно, что бы они шарахались по африкам или иракам с афганистанами, проповедуя, миссионеры тут приятное исключение, я их даже уважаю, несмотря на свое абсолютно атеистическое мировоззрение. Было у меня видео украденное с парой из моего города, так так парень ублажал своё хозяйство промеж сисек любимой, после чего кончил прямо на крестик на её шее, такое нередко бывает..
>>313011554 (OP) >которое надо постоянно тыкать на кнопку Скачать оригинал Открываешь PowerShell 7 Core (не путать с Windows PowerShell 5 ) Найди ссылку в HTML-редакторе которая отвечает за скачивание, рассмотри все ее атрибуты.
Дальше сканируешь все адреса со страницы через стандартный текстовый код определения символов Windows тупо очищая ссылки скачивания от говна, заносишь каждый в коллекцию переменных и перебираешь циклом с помощью команды Invoke-WebRequest. Все просто. Я так с сосача вебм-треды скачиваю в обход API и пасскодов.
>>313012875 >Если ты не бухаешь, у тебя есть работа - то это уже вин для нее в наше то время. Конечно стейси 10 из 10 не светит, но обычную вполне найдешь
Ахахах, вот это копиум... Меня отшивала 32-летняя с двумя детьми, которую бывший муж пиздил. Сказала, с чертами лица не повезло.
>>313012483 Да. Без Пайтон не фурычит. Он там в два тычка ставится.
Мжно и на другом языке программирования парсить сайты. Я писал парсеры на ноде ,питоне, даже на связке плюсов и libcurl+tinyxml. Смотря что надо спарсить. Из последнего писал парсер чтоб качал манги со слешлиба, попросила подруга ,так как там скачивание нихуя не работает.
>>313012575 Умничка! >>313012651 С мелким у тебя тян до ближайшего большого хуя. >>313012600 Там надо сначала спарсить все разделы, потом ещё с пагинацией разобраться
>>313012600 Гарантирую что эта хуйня не работает. Из 100% нужных правильных вариантов, ChatGPT-4o выдает 36% - и ЭТО СТАТИСТИКА OPENAI. Править баги за ним заебешься, проще самому написать. ChatGPT - это оверхайпленая параша. Местный пидорок, который тут отдельно бегает со своими тредами как ему якобы нейросетка сделала код сам написал этот код, чтобы тролить даунов.
>>313013004 Конкретно этот код может быть и не работает, не проверял, но в 90% случаев он решает мои проблемы, он может написать косячно, но если ему в ответ отправить ошибку, он все исправит, либо даст понять где ты накосячил.
может быть совсем с 0 знаниями он вам и не поможет, но примерно зная, что нужно делать, и как это все работает, он это сделает
>>313013004 Да и похуй, я его для другого использую, просто зарофлил с погромиста который воспользовался метаиронией на тему гпт.
>>313012962 import os import time import requests from bs4 import BeautifulSoup
# Настройки BASE_URL = "https://s.sasisa.me/" # Базовый URL OUTPUT_DIR = "downloaded_photos" # Папка для сохранения фото HEADERS = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/110.0.5481.77 Safari/537.36'}
# Создаем папку для сохранения фотографий if not os.path.exists(OUTPUT_DIR): os.makedirs(OUTPUT_DIR)
# Функция для скачивания фотографии def download_photo(url, filename): try: response = requests.get(url, stream=True, headers=HEADERS) if response.status_code == 200: filepath = os.path.join(OUTPUT_DIR, filename) with open(filepath, 'wb') as file: for chunk in response.iter_content(1024): file.write(chunk) print(f"Скачано: {filename}") else: print(f"Ошибка при скачивании: {url}") except Exception as e: print(f"Ошибка: {e}")
# Функция для парсинга одной страницы def scrape_page(url): try: response = requests.get(url, headers=HEADERS) if response.status_code != 200: print(f"Не удалось загрузить страницу: {url}") return []
soup = BeautifulSoup(response.text, 'html.parser') photo_links = [] # Ищем ссылки на фото (здесь нужно проверить структуру сайта) for link in soup.find_all('a', href=True): if "original" in link['href']: # Фильтрация ссылок на фото photo_url = BASE_URL + link['href'] if not link['href'].startswith('http') else link['href'] photo_links.append(photo_url)
# Функция для обработки раздела с пагинацией def scrape_section(section_url): page = 1 while True: print(f"Обрабатывается страница {page} раздела {section_url}...") paginated_url = f"{section_url}?page={page}" # Если пагинация через параметр page photo_links = scrape_page(paginated_url)
if not photo_links: # Если ссылок больше нет, выходим print("Пагинация завершена.") break
# Скачиваем фотографии for photo_url in photo_links: filename = os.path.basename(photo_url) download_photo(photo_url, filename)
page += 1 time.sleep(1) # Задержка для предотвращения блокировки
# Главная функция для парсинга всех разделов def scrape_all_sections(): try: response = requests.get(BASE_URL, headers=HEADERS) if response.status_code != 200: print(f"Не удалось загрузить базовый URL: {BASE_URL}") return
soup = BeautifulSoup(response.text, 'html.parser') # Ищем ссылки на разделы section_links = [BASE_URL + link['href'] for link in soup.find_all('a', href=True) if "section" in link['href']] # Уточни критерий поиска разделов
for section_url in section_links: print(f"Обрабатывается раздел: {section_url}") scrape_section(section_url) except Exception as e: print(f"Ошибка парсинга разделов: {e}")
# Запуск if __name__ == "__main__": scrape_all_sections()
>>313018152 А у меня такое неистовое семяизвержение, что она сразу бы тройню начала вынашивать от меня, если бы весь этот фонтан влился в матку. Идеальное тело, красивое лицо, такая женщина не может быть столько доступна.
>>313018396 >Ну так у тебя хуец уже все А нихуя. Я спущаю во сне по кд просто... Раз в неделю стабильно просыпаюсь с полными трусами малафьи. Так что всё там работает у меня на отлично.
>>313018846 Ну тогда еще ладно. Просто, чем старше, тем менее разборчивый становится человек. Я в 16 или 18 хотел только фотомоделей, а чем старше становился планочка понижалась. Теперь вот скоро думаю и на эту тётеньку засматриваться буду... 29лвл
Как понимаю, раньше там обменивались фотками своих жен примерно в 2010-2019 год
ВОПРОС к погромист-кунам!
Как спарсить все фотографии с хостинга?
Там имеется уебищная мобильная верстка html говна, которое надо постоянно тыкать на кнопку Скачать оригинал
Короче нужна помощь, как это сука сделать, я уверен что можно через api выйти на хост где можно схоронить тонну этого контента чтобы передать потомкам
Поддержите пожалуйста тред анонче! без говняка, просто по человечески жалко контент который в одночасье может пропасть с нихуя...