Для того чтобы собрать ссылки с заданным классом в словарь, мы можем использовать библиотеку BeautifulSoup в сочетании с языком программирования Python.
Первым делом, нам нужно установить библиотеку BeautifulSoup, если она ещё не установлена. Для этого используется команда pip install beautifulsoup4
.
Далее, импортируем необходимые модули:
from bs4 import BeautifulSoup import requests
После этого, нам нужно получить HTML-код страницы, с которой мы будем работать. Мы можем это сделать с помощью модуля requests
. Например, чтобы получить HTML-код страницы по URL, мы можем использовать следующий код:
url = 'https://example.com' # замените на свой URL response = requests.get(url) html = response.text
Теперь, когда у нас есть HTML-код страницы, мы можем использовать BeautifulSoup для его анализа и сбора всех ссылок с заданным классом.
soup = BeautifulSoup(html, 'html.parser') links = {} # словарь для хранения ссылок target_class = 'target-class' # замените на нужный класс for a in soup.find_all('a', class_=target_class): links[a.text] = a['href']
В этом примере мы проходимся по всем тегам <a>
с классом, указанным в переменной target_class
. Затем мы добавляем текст ссылки в качестве ключа в словарь links
и присваиваем ему значение атрибута href
этой ссылки.
Теперь, когда итерация закончена, у нас есть словарь links
, в котором ключами являются тексты ссылок, и значениями - их адреса.
Полный пример кода:
from bs4 import BeautifulSoup import requests url = 'https://example.com' # замените на свой URL response = requests.get(url) html = response.text soup = BeautifulSoup(html, 'html.parser') links = {} # словарь для хранения ссылок target_class = 'target-class' # замените на нужный класс for a in soup.find_all('a', class_=target_class): links[a.text] = a['href'] print(links)
Этот код будет выводить словарь links
с собранными ссылками. Обратите внимание, что код может быть дополнен и тонкой настройкой в зависимости от ваших конкретных потребностей и структуры HTML-кода на целевой странице.