import re from typing import List, Dict, Optional, Set from bs4 import BeautifulSoup from forum_parser import InfostartForumParser import csv import os import logging logger = logging.getLogger(__name__) class ThinkModelForumParser(InfostartForumParser): def __init__(self, csv_file: str = 'think_model_dataset.csv', delay: float = 1.0): super().__init__(csv_file, delay) self.csv_file = csv_file self._init_csv() # Override parent's CSV initialization def _init_csv(self): """Инициализация CSV файла с заголовками для think model""" if not os.path.exists(self.csv_file): with open(self.csv_file, 'w', newline='', encoding='utf-8') as file: writer = csv.writer(file, quoting=csv.QUOTE_ALL) writer.writerow(['source', 'in_source_id', 'prompt', 'think_process', 'solution', 'is_answer_a_link', 'has_link']) def extract_thread_conversation(self, soup: BeautifulSoup) -> str: """Извлечение всей ветки обсуждения в формате think process""" conversation = [] # Находим все сообщения в треде messages = soup.find_all('div', class_='m-tree-p') for msg in messages: # Извлекаем текст сообщения message_text_div = msg.find('div', class_='forum-message-text') if message_text_div: text = self.clean_message_text(message_text_div) if text: # Дополнительная очистка от цифр в скобках для сообщений text = self.clean_solution_text(text) if text: # Проверяем что текст не пустой после очистки conversation.append(text) # Формируем think process в формате {conversation} think_process = "\n" think_process += "\n---\n".join(conversation) # Разделяем сообщения think_process += "\n" return think_process def count_links_in_text(self, text: str) -> int: """Подсчет количества ссылок в тексте""" # Ищем URL-подобные строки url_pattern = r'http[s]?://(?:[a-zA-Z]|[0-9]|[$-_@.&+]|[!*\\(\\),]|(?:%[0-9a-fA-F][0-9a-fA-F]))+' links = re.findall(url_pattern, text) return len(links) def is_answer_mostly_link(self, text: str) -> bool: """Проверка, состоит ли ответ в основном из ссылки (>80%)""" # Находим все ссылки url_pattern = r'http[s]?://(?:[a-zA-Z]|[0-9]|[$-_@.&+]|[!*\\(\\),]|(?:%[0-9a-fA-F][0-9a-fA-F]))+' links = re.findall(url_pattern, text) if not links: return False # Считаем общую длину текста и длину ссылок total_length = len(text.strip()) links_length = sum(len(link) for link in links) # Проверяем, составляют ли ссылки более 80% текста return (links_length / total_length) > 0.8 if total_length > 0 else False async def parse_topic(self, session, topic_url: str) -> Optional[List[Dict]]: """Переопределенный метод парсинга темы для think model""" topic_id = self.extract_topic_id(topic_url) if not topic_id: logger.debug(f"Невалидный URL: {topic_url}") return None logger.info(f"Парсинг темы: {topic_url}") html = await self.fetch_page(session, topic_url) if not html: return None soup = BeautifulSoup(html, 'html.parser') # Извлекаем метаданные meta_id = self.extract_meta_identifier(soup) if not meta_id: logger.warning(f"Не найден meta identifier для {topic_url}") return None # Проверяем, не обработана ли уже эта тема if meta_id in self.processed_urls: logger.debug(f"Тема {meta_id} уже обработана") return None # Извлекаем основные данные prompt = self.extract_first_message(soup) if not prompt: logger.warning(f"Не найден вопрос для {topic_url}") return None think_process = self.extract_thread_conversation(soup) solutions = self.extract_solutions(soup) # Создаем записи даже если нет решений if solutions: # Объединяем все решения в одно combined_solution = "\n---\n".join(solutions) else: combined_solution = "" # Анализируем ссылки has_link = self.count_links_in_text(combined_solution) is_answer_a_link = self.is_answer_mostly_link(combined_solution) self.processed_urls.add(meta_id) return [{ 'source': 'forum_infostart', 'in_source_id': meta_id, 'prompt': prompt, 'think_process': think_process, 'solution': combined_solution, 'is_answer_a_link': is_answer_a_link, 'has_link': has_link if has_link > 0 else 'NaN' }] def save_to_csv(self, data: List[Dict]): """Переопределенный метод сохранения в CSV для think model""" if not data: return with open(self.csv_file, 'a', newline='', encoding='utf-8') as file: writer = csv.DictWriter(file, fieldnames=['source', 'in_source_id', 'prompt', 'think_process', 'solution', 'is_answer_a_link', 'has_link'], quoting=csv.QUOTE_ALL) # Полное квотирование для сохранения пробелов for row in data: # Экранируем специальные символы в текстовых полях escaped_row = {} for key, value in row.items(): if isinstance(value, str): escaped_row[key] = self.escape_for_csv(value) else: escaped_row[key] = value writer.writerow(escaped_row) logger.info(f"Сохранено {len(data)} записей в {self.csv_file}") async def main(): parser = ThinkModelForumParser() await parser.parse_all_pages(start_page=1, end_page=2100) if __name__ == "__main__": import asyncio asyncio.run(main())