Study/Python

    [Python] 크롤링과 스크래핑 ( crawling, scraping ) #2 [ BeutifulSoup : bs4 ]

    [Python] 크롤링과 스크래핑 ( crawling, scraping ) #2 [ BeutifulSoup : bs4 ]

    2021.12.20 - [Study/Python] - [Python] 크롤링과 스크래핑 ( crawling, scraping ) #1 [ requests] [Python] 크롤링과 스크래핑 ( crawling, scraping ) #1 [ requests] 크롤링이란 원하는 페이지의 정보를 긁어오는 것이고, 스크래핑은 그 긁어온 정보에서 필요한 데이터를 뽑아내는 것을 말합니다. ex) 영화 사이트를 크롤링하여 그 중 평점 데이터를 스크래핑 programmers-sosin.tistory.com 이전 게시글에서는 requests를 사용하여 크롤링하는 것을 배웠습니다. 이번 게시글에서는 bs4를 이용하여 크롤링한 정보에서 원하는 데이터를 스크래핑하는 것을 작성해보겠습니다. Beautifulsoup4 사용법 b..

    [Python] 크롤링과 스크래핑 ( crawling, scraping ) #1 [ requests]

    [Python] 크롤링과 스크래핑 ( crawling, scraping ) #1 [ requests]

    크롤링이란 원하는 페이지의 정보를 긁어오는 것이고, 스크래핑은 그 긁어온 정보에서 필요한 데이터를 뽑아내는 것을 말합니다. ex) 영화 사이트를 크롤링하여 그중 평점 데이터를 스크래핑 해와! 이번 게시글에선 파이썬의 requests 라이브러리를 사용해서 웹페이지의 html 코드를 가져오는 것 (크롤링)을 해보겠습니다. import requests response = requests.get('https://www.naver.com/') search_page = response.text print(search_page) 위 코드는 현재 입력한 url의 html 코드를 긁어오는 코드입니다. 하나하나 알아보겠습니다. import requests 는 requests 라이브러리를 사용하기 위해 import 해준 것..

    [Python] Openpyxl과 네이버 Geocoding을 이용한 위도경도 변환하기

    [Python] Openpyxl과 네이버 Geocoding을 이용한 위도경도 변환하기

    오늘은 openpyxl로 엑셀에서 정리된 주소를 가져와 네이버 클라우드 플랫폼의 Geocoding을 사용하여 위도 경도를 엑셀에 추가해줘 보겠습니다! 준비사항 사용할 엑셀 파일은 서울특별시에서 제공하는 채식 음식점 현황을 엑셀로 정리한 것입니다! https://news.seoul.go.kr/welfare/public_health/status-of-vegetarian-restaurants 서울시 채식 음식점 현황 서울시 채식 음식점 현황 news.seoul.go.kr 엑셀은 위 링크에서 다운로드하실 수 있어요! 그리고 네이버 클라우드 플랫폼의 지도 API의 상세 기능 중 Geocoding API 기능을 사용하기 위해 Key를 발급받아야 한다. Geocoding 이란? :주소의 텍스트를 입력받아 좌표를 포함..