[python] 스크래핑한 데이터를 CSV 파일로 저장하기

이번 포스트에서는 Python을 사용하여 웹사이트에서 데이터를 스크래핑하고, 이를 CSV 파일로 저장하는 방법에 대해 알아보겠습니다.

필요한 라이브러리 설치

우선, 데이터 스크래핑과 CSV 파일로 저장하기 위해 requestsbeautifulsoup4 라이브러리를 설치해야 합니다. 아래의 명령어를 사용하여 간단하게 설치할 수 있습니다.

pip install requests
pip install beautifulsoup4

데이터 스크래핑하기

다음은 Python을 사용하여 웹페이지에서 데이터를 스크래핑하는 코드의 예시입니다.

import requests
from bs4 import BeautifulSoup
import csv

url = '웹페이지 URL'
response = requests.get(url)
soup = BeautifulSoup(response.text, 'html.parser')

# 원하는 데이터를 스크래핑하는 코드 작성
data = []

# 데이터를 스크래핑하여 data 리스트에 추가

# CSV 파일로 저장
with open('data.csv', 'w', newline='', encoding='utf-8') as file:
    writer = csv.writer(file)
    # 헤더 작성
    writer.writerow(['컬럼1', '컬럼2', '컬럼3'])  # 각 컬럼명에 맞게 수정
    # 데이터 작성
    writer.writerows(data)

위 코드에서 '웹페이지 URL'은 스크래핑할 웹페이지의 URL로 변경해야 합니다. 또한, 실제 데이터 스크래핑 부분과 CSV 파일에 데이터를 저장하는 부분은 웹페이지에 따라 수정되어야 합니다.

마치며

이렇게 Python을 사용하여 웹페이지에서 데이터를 스크래핑하고, 이를 CSV 파일로 저장하는 간단한 방법에 대해 알아보았습니다. 데이터 스크래핑 시에는 웹페이지의 이용 약관을 준수해야 하며, 상업적인 용도로 사용할 때에는 저작권 등을 고려해야 합니다.