Python

    [ Python ] pymongo에서 문자열 포함 여부를 확인하는 방법

    2021.12.17 - [Study/Flask] - [Flask] Flask에서 pymongo 사용하기! [Flask] Flask에서 pymongo 사용하기! 현재 진행 중인 팀 프로젝트에서 서울의 여러 구에 있는 음식점이 저장되어 있는 csv 파일을 이용해서 이것을 서울의 5개의 권역으로 따로 묶어주기로 했다. [ 서북권, 도심권, 동북권, 서남권, 동 programmers-sosin.tistory.com 기존 pymongo에서 데이터를 뽑아 쓰는 와중에 검색 기능을 구현해야 할 일이 생겼다. 이때 검색기능을 구현할 때, 검색어를 받아 데이터 내부의 값과 비교시키니까 일치하는 경우에만 데이터가 나오는데 이때 검색어를 포함한 모든 것이 검색되게 만들고 싶어서 찾아보고, 그 결과를 작성해본다! pymong..

    [Python] 크롤링과 스크래핑 ( crawling, scraping ) #2 [ BeutifulSoup : bs4 ]

    [Python] 크롤링과 스크래핑 ( crawling, scraping ) #2 [ BeutifulSoup : bs4 ]

    2021.12.20 - [Study/Python] - [Python] 크롤링과 스크래핑 ( crawling, scraping ) #1 [ requests] [Python] 크롤링과 스크래핑 ( crawling, scraping ) #1 [ requests] 크롤링이란 원하는 페이지의 정보를 긁어오는 것이고, 스크래핑은 그 긁어온 정보에서 필요한 데이터를 뽑아내는 것을 말합니다. ex) 영화 사이트를 크롤링하여 그 중 평점 데이터를 스크래핑 programmers-sosin.tistory.com 이전 게시글에서는 requests를 사용하여 크롤링하는 것을 배웠습니다. 이번 게시글에서는 bs4를 이용하여 크롤링한 정보에서 원하는 데이터를 스크래핑하는 것을 작성해보겠습니다. Beautifulsoup4 사용법 b..

    [Python] 크롤링과 스크래핑 ( crawling, scraping ) #1 [ requests]

    [Python] 크롤링과 스크래핑 ( crawling, scraping ) #1 [ requests]

    크롤링이란 원하는 페이지의 정보를 긁어오는 것이고, 스크래핑은 그 긁어온 정보에서 필요한 데이터를 뽑아내는 것을 말합니다. ex) 영화 사이트를 크롤링하여 그중 평점 데이터를 스크래핑 해와! 이번 게시글에선 파이썬의 requests 라이브러리를 사용해서 웹페이지의 html 코드를 가져오는 것 (크롤링)을 해보겠습니다. import requests response = requests.get('https://www.naver.com/') search_page = response.text print(search_page) 위 코드는 현재 입력한 url의 html 코드를 긁어오는 코드입니다. 하나하나 알아보겠습니다. import requests 는 requests 라이브러리를 사용하기 위해 import 해준 것..

    [Django] 장고 유저 기능 구현하기 #9 ( 회원가입 정보 유효성 검사)

    [Django] 장고 유저 기능 구현하기 #9 ( 회원가입 정보 유효성 검사)

    2021.12.18 - [Study/Django] - [Django] 장고 유저 기능 구현하기 #8 (닉네임 필드 추가하기) [Django] 장고 유저 기능 구현하기 #8 (닉네임 필드 추가하기) 2021.12.17 - [Study/Django] - [Django] 장고 유저 기능 구현하기 #7 (로그인 기억하기) [Django] 장고 유저 기능 구현하기 #7 (로그인 기억하기) 2021.12.17 - [Study/Django] - [Django] 장고 유저 기능 구현하.. programmers-sosin.tistory.com 저번 게시글에서는 회원가입에 닉네임 필드를 새로 생성해 넣었는데요. 유효성 검사는 되고 있지 않습니다. 그래서 이번 게시글에서는 Form에 유효성 검사를 넣는 방법에 대해 알아보겠..