Coding/Python(18)
-
문자열 내 p와 y의 개수 구하기
주어진 문자열 내의 p와 y의 개수를 비교해서 같으면 True, 다르면 False를 return한다.p와 y는 대소문자를 구분하지 않는다.p와 y가 하나도 없을 경우 True를 return한다. 1234567def solution(s): answer = True if s.lower().count('p') != s.lower().count('y') : answer = False return answerColored by Color Scriptercs .lower()로 문자열을 소문자로 만들고,.count()로 p, y의 개수를 구해서 비교한다.p와 y가 하나도 없을 경우, True를 return하니, return기본 값은 True로 한다.
2018.11.05 -
같은 숫자 찾기
arr = [2,2,3,5,4,4,5] 를 주어지면,answer = [2,3,5,4,5] 처럼 연속되는 중복만 제외시켜서 출력되게 만드는게 문제. 생각나는대로 짜본 코드 123456789def solution(arr): answer = [] temp = arr[0] answer.append(temp) for i in arr : if temp != i : answer.append(i) temp = i return answercs arr의 0번 인덱스는 중복이 안되면 당연히 answer에 들어가고,중복이 되더라도 answer에 들어가기 때문에 무조건 answer에 들어가게된다. 이건 비슷한 예제보고 공부 더 해봐야 할듯. 고수의 코드로 공부.... 12345678910def solution(arr): ans..
2018.11.03 -
요일 구하기
실제로 존재하는 날짜의 년,월,일을 받는다고 가정했을때, 123456import datetime def solution(y, m, d): dateStr = ['MON','TUE','WED','THU','FRI','SAT','SUN'] answer = dateStr[datetime.date(y,m,d).weekday()] return answerColored by Color Scriptercs .weekday()가 해당 날짜의 요일을 0~6까지로 반환함. 0 1 2 3 4 5 6 Monday Tuesday Wednesday Thursday Friday Saturday Sunday
2018.11.03 -
[Python]Atom에디터 UnicodeEncodeError: 'cp949' codec can't encode character
UnicodeEncodeError: 'cp949' codec can't encode character '\u2013' in position 33: illegal multibyte sequence유니코드 관련 에러 우측 하단에 UTF-8로 잘 설정이 되어있다면,새로 파이썬 파일을 만들어서print('한글') 을 통해 한글 출력 테스트를 해보자.한글이 깨져나온다면, 해당 코드에 아래 코드를 추가해주면 끝 import sysimport io sys.stdout = io.TextIOWrapper(sys.stdout.detach(), encoding = 'utf-8')sys.stderr = io.TextIOWrapper(sys.stderr.detach(), encoding = 'utf-8')
2018.08.10 -
3-3. 크롤링한 데이터를 json 파일 만들기
12345678910111213141516171819202122232425262728293031323334353637383940414243444546474849505152535455565758596061626364656667686970import requestsfrom bs4 import BeautifulSoup as BSimport csvimport json def mnet_Crawling(html): temp_list = [] temp_dict = {} tr_list = html.select('div.MnetMusicList.MnetMusicListChart > div.MMLTable.jQMMLTable > table > tbody > tr') for tr in tr_list : rank = int(..
2018.06.10 -
3-2. 크롤링한 데이터를 csv 파일 만들기
12345678910111213141516171819202122232425262728293031323334353637383940414243444546474849505152535455565758596061import requestsfrom bs4 import BeautifulSoup as BSimport csv def mnet_Crawling(html): temp_list = [] temp_dict = {} tr_list = html.select('div.MnetMusicList.MnetMusicListChart > div.MMLTable.jQMMLTable > table > tbody > tr') for tr in tr_list : rank = int(tr.find('td',{'class':'MMLIte..
2018.06.10