scraping
scraper
- ko.wikipedia - 패킷 / wikipedia_Eng - netowrk packet
- How Browsers Work: Behind the scenes of modern web browsers / 번역: Naver-D2 브라우저는 어떻게 동작하는가?
- Beautiful Soup 4.4.0 documentation
- 인천시는 정말 고담시티일까? - 다른 시도와 비교하여 범죄현황 분석 cf. 책 - 파이썬으로 데이터 주무르기 지음.민형기
- 어떤 항공사가 연착이 덜 될까? - 악명높은 00항공은 정말로 연착이 심할까?
- 경의중앙선은 정말로 연착될까? - 얼마나 연착되나 시각화 - 다들 연착이 심하다는 건 알고 있지만, 실제로 얼마나 심한지 시각화 / 용산역 연착 비율 시각화
- 집에 앉아가자 - 서울 버스 혼잡도 연관지어서,
- 날씨와 대중교통 혼잡도 상관관계 분석
- jupyter 사용법 /
- python 예외처리 - 상속
- 정규표현식
- PEP8 flask8
- str init method
- [궁금] virtualEnv 가상환경 구축 : 가상환경 A 에서 '가'라이브러리 사용, 가상환경 B 에서 '가'라이브러리 사용한다고 하면, 중복으로 '가'라이브러리가 설치되는지, 중앙에서 한번 설치하고 참조해서 쓰는 개념인지? 컴퓨터 하드웨어 자원관리 차원에서 중복설치는 좀...
- study summary
- [Web] 웹 작동방식
- What is networking packet : ko.wikipedia - 패킷 / wikipedia_Eng - netowrk packet
패킷(packet, 문화어: 파케트, 소포)은 정보 기술에서 패킷 방식의 컴퓨터 네트워크가 전달하는 데이터의 형식화된 블록이다. 패킷을 지원하지 않는 컴퓨터 통신 연결은 단순히 바이트, 문자열, 비트를 독립적으로 연속하여 데이터를 전송한다. 데이터가 패킷으로 형식이 바뀔 때, 네트워크는 장문 메시지를 더 효과적이고 신뢰성 있게 보낼 수 있다. 패킷은 데이터의 한 단위라고 할 수 있다. (ko.wikipedia - 패킷)
- [python] virtualEnv 가상환경 구축
- 프로젝트별로 사용하는 라이브러리 따로 관리하여 가상환경을 구축
- [lib] urllib
- [lib] Beautiful Soup는 html을 xml python 객체로 변환
- 잘못된 html을 xml(well-formed) 로 바꿈
- python '객체'가 됨
- 핵심키워드 : 재귀
- '웹스크래핑'과 '웹크롤링' 용어를 구분해서 작성하자
- 웹스크래핑 :
- 웹크롤링:
웹 크롤러를 사용할 때는 반드시 대역폭에 세심한 주의를 기울여야 하며, 타깃 서버의 부하를 줄일 방법을 강구해야합니다. (p.53)
위키백과의 서버 부하에 대한 대책은? (...)기부 하십시오. (p.54)
- python 1000번만 재귀호출됨
- 예외처리 중요하다! (책 샘플코드에는 예외처리가 없음)
웹사이트 전체 크롤링은 언제 유용하고, 언제 손해일까요?
- 사이트맵 생성 / 데이터 수집
같은 페이지를 두 번 크롤링하지 않으려면 발견되는 내부 링크가 모두 일정한 형식을 취하고,프로그램이 동작하는 동안 계속 유지되는 리스트에 보관하는 게 대단히 중요합니다. 새로운 링크만 탐색하고 거기서 다른 링크를 검색해야 합니다.
파이썬은 기본적으로 재귀 호출을 1,000회로 제한합니다.(...) 멈추는 일을 막으려면 재귀 카운터를 삽입하거나 다른 방법을 강구해야 합니다.
결국 필자는 URL이 너무 우스꽝스러워 보이지는 않는지, 무한 루프로 보이는 반복된 조각이 들어 있지는 않는지 체크하는 코드를 삽입해야 했습니다. 이렇게 하지 않고 밤새 돌아가도록 내버려뒀더라면 금새 정지했을 겁니다.
이런 일을 가장 잘하기 위해 첫 번째 할 일은 사이트의 페이지 몇 개를 살펴보며 패턴을 찾는 일입니다.
-
어떤 경우에 웹사이트 전체 크롤링이 유용할까?
-
크롤링을 하기 전에 물을 질문들
내가 수집하려 하는 데이터는 어떤 것이지?
크롤러가 특정 웹사이트에 도달하면, 즉시 새 웹사이트를 가리키는 링크를 따라가야 할까? 아니면 한동안 현재 웹사이트에 머물면서 파고들어야 할까?
특정 사이트를 스크랩에서 제외할 필요는 없나. 만약 크롤러가 방문한 사이트의 웹마스터가 크롤러의 방문을 알아차렸다면 나 자신을 법적으로 보호할 수 있을까?
-
프로그램 설계하기 전에, 순서도 작성해 로직 확인해보기 - p.82 그림 3-2 순서도
실제 코드를 작성하기 전에 그 코드가 무슨 일을 하는지 다이어그램을 그려보거나 메모해보는 습관을 들이는 게 좋습니다. 크롤러가 복잡해지면 이런 습관이 시간을 매우 많이 절약해주고,좌절하는 일도 훨씬 줄어들 겁니다.
-
크롤러에서의 재귀처리
이 크롤러가 방문한 사이트에 외부 링크가 하나도 없다면(흔치 않지만, 크롤러를 오래 실행한다면 언젠가 반드시 일어납니다), 이 프로그램은 파이썬의 재귀 제한에 걸릴 때까지 계속 실행됩니다.
-
크롤러에서의 페이지 리다이렉트 처리
파이썬 3.x에서 제공하는 urllib 라이브러리가 리다이렉트를 자동으로 처리해주니까요
-
scrapy : python3 에서도 사용가능 / 공식 문서
스크래파이Scrapy는 웹사이트의 링크를 찾아서 분석하고, 도메인이나 도메인 목록 크롤링작업을 쉽게 해주는 파이썬 라이브러리입니다.
- scrapy 로그수준 조절
-
오늘의 코드 : 페이지 링크 스크래핑 + 예외처리
- 위키피디아 페이지 내에 있는 모든 링크 출력 (잘못된 url 입력시, 에러메시지 출력)
from urllib.request import urlopen
from bs4 import BeautifulSoup
import datetime
import random
import re
# [궁금] random.seed() 왜 하죠?
random.seed(datetime.datetime.now())
def getLinks(articleUrl):
try:
html = urlopen("https://en.wikipedia.org"+articleUrl)
except Exception as e:
print(e)
else:
bsObj = BeautifulSoup(html, "html.parser")
articleUrl = bsObj.find("div", {"id":"bodyContent"}).findAll("a", href=re.compile("^(/wiki/)((?!:).)*$"))
return articleUrl
return list()
links = getLinks("/wiki/Jessica_Chastain")
# links = getLinks("/wiki/Main_page/wiki/Jessica_Chastain") # wrong input url - error
while len(links) > 0:
#link 범위 내에서,무작위로 목록을 뿌려줌 / [궁금] 왜 random을 하는데 중복된 링크를 출력하지 않는지?
newArticle = links[random.randint(0, len(links)-1)].attrs["href"]
print(newArticle)
links = getLinks(newArticle)