일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- 오라클DB
- 파이썬
- OS
- ubuntu
- 알고리즘
- data communication
- 자바
- 파이썬 챌린지
- Python challenge
- 러스트
- 러스트 예제
- Database
- 자바 개념
- 파이썬 첼린지
- 데이터 통신
- Python
- Reversing
- 운영체제
- 백준
- 오라클
- 우분투
- C
- Rust
- Operating System
- 러스트 프로그래밍 공식 가이드
- java
- 데이터베이스
- 백준 러스트
- 파이썬 알고리즘
- 자바 기초
- Today
- Total
목록Development Study/Python (50)
IT’s Portfolio
지금까지 쳐놀고 다른 일 좀 하느라 글 업데이트가 뜸했음 ㅋㅋ 오늘은 네이버 뉴스에서 지역별 코로나19 뉴스를 크롤링해오는 프로그램을 제작해보자. 준비물 : 신승훈의 I believe를 들으면서 하도록 하자. 개띵곡임 ㅇㅇ;; import import sys from bs4 import BeautifulSoup from datetime import datetime import requests import pandas as pd 오류가 나면 프로그램 종료를 위한 sys bs4와 requests는 크롤링 국룰 엑셀파일 제작을 위한 datetime과 pandas coding location_text = "" title_text=[] link_text=[] time_text=[] press_text=[] res..
오늘은 네이버에서 지역별 날씨 정보를 크롤링하는 프로그램을 제작해보려고한다. 준비물: python, requests 라이브러리, bs4 라이브러리, 생각하는 뇌 import import requests from bs4 import BeautifulSoup 국룰 Coding location = input("지역을 입력하세요\n>>> ") Finallocation = location + '날씨' LocationInfo = "" NowTemp = "" CheckDust = [] url = 'https://search.naver.com/search.naver?where=nexearch&sm=top_hty&fbm=1&ie=utf8&query=' + Finallocation hdr = {'User-Agent': (..
P 파일 확장자, Python Pickle Module이란? p 파일은 Python Pickle 모듈에 의해 만들어지는 파일로 Python 객체를 디스크에 저장하거나 네트워크를 통해 전송하기 위해 바이트 표현으로 변환하는데 사용함. 일반 텍스트를 파일로 저장할 때는 파일 입출력을 이용함. 데이터를 다른 형식으로 변환하지 않고도 객체를 편리하게 저장하거나 전송할 수 있음. 즉, 리스트나 클래스같은 텍스트가 아닌 자료형은 일반적인 파일 입출력 방법으로 데이터를 저장하거나 불러올 수 없는데 Pickle 모듈을 사용하면 가능함. Pickle Module 모듈 import 필요. pickle로 데이터를 입력하거나 로드하려면 파일을 wb, rb형식을 사용해야함. 입력: pickle.dump( 입력데이터, 파일 ) ..
isalpha() 문자열이 영어 혹은 한글로 되어있으면 참 리턴, 아니면 거짓 리턴. text = "!#$$!@$!!!!!!!!@$#231421234네123^&^#$#이!#12313_+{스" text1 = "네이스" text2 = "123123" text3 = "!@#$" check = "" print(text1.isalpha()) print(text2.isalpha()) print(text3.isalpha()) for i in text: if i.isalpha(): check += i print(check) 결과: text1은 한글(문자) text2는 숫자 text3는 특수문자 이를 이용해서 숫자와 특수문자가 섞인 문자열 중 글자만 뽑아내는 것이 가능하다. isalnum() 문자열이 영어, 한글 혹은 ..
string.maketrans( from, to ) from에 있는 문자를 to의 문자로 치환하는 함수. 같은 위치의 문자가 변하기 때문에 from과 to의 길이가 같아야 함. translate() 메소드에 전달할 인수를 만드는데 사용됨. text = "네이스~ 제엔장 믿고있었다구~" a = "네이스" b = "괴물쥐" data = text.maketrans(a, b) print(text.translate(data)) 결과: text의 '네이스' 라는 문자가 '괴물쥐' 로 바뀌어서 출력되는 것을 알 수 있다.
isdecimal() isdigit() isnumeric() => 주어진 문자열이 숫자로 되어있는지 검사하는 함수 a = '12345678' print(a.isdigit()) print(a.isdecimal()) print(a.isnumeric()) a가 그냥 평범한 숫자 문자열일때는 세 개의 명령어 다 True를 반환한다. a = '3²' print(a.isdigit()) print(a.isdecimal()) print(a.isnumeric()) 하지만 a가 3²일때는 이러한 결과가 반환된다. 왜 그럴까? 3²에서 ²는 특수문자이지만 isdigit() 함수와 isnumeric() 함수로는 True가 반환된다. 하지만 isdecimal() 함수로는 False가 반환된다. 이것은 함수 차이인데 isdigi..
전편인 롤 전적 크롤링 프로그램보다 간단한 그냥 존나 쉬운 네이버 실시간 검색어 크롤링 프로그램을 만들어보자. 준비물 : python, requests 라이브러리, bs4 라이브러리, 당신의 열정 import import requests from bs4 import BeautifulSoup 설명할 필요가 굳이 있나 싶다. Requests와 BeautifulSoup 세팅과 변수선언 url = "https://www.naver.com/" req = requests.get(url) html = req.text soup = BeautifulSoup(html, "html.parser") RealTimeSearch = [] count = 0 네이버 실시간 검색어를 파싱할때는 굳이 헤더를 변경해줄 필요가 없다. 모바..
요새 웹 크롤링에 꽂혀서 많은 것을 만들어보고 있다. 그 중 롤 전적검색 프로그램을 만들어보려고 한다. 준비물 : python, requests 라이브러리, bs4 라이브러리, op.gg사이트, 당신의 뇌 import와 변수선언 import requests from bs4 import BeautifulSoup Name = input("소환사명을 입력하세요: ") SummonerName = "" Ranking = "" TierUnranked = "" LeagueType = [] Tier = [] LP = [] Wins = [] Losses = [] Ratio = [] requests와 bs4의 BeautifulSoup을 import. 소환사명을 입력받고 저장할 Name 변수선언. 다른 변수들은 귀찮으니 설..