미니프로젝트

    OpecCV를 통해 차선 인식하기

    위와 같이 사진을 사용하여 길 위의 차선을 인식할 것입니다. 사용함수! def canny_edge(image) : gray_conversion = cv2.cvtColor(image, cv2.COLOR_BGR2GRAY) blur_conversion = cv2.GaussianBlur(gray_conversion, (5,5), 0) canny_conversion = cv2.Canny(blur_conversion, 50, 150) return canny_conversion def reg_of_interest(image) : image_height = image.shape[0] polygons = np.array( [[ (200, image_height) , (1100, image_height), (550, 25..

    CNN을 활용하여 드론과 새 분류하기

    앞선 글에서 구글 이미지 크롤링을 했다. durian9s-coding-tree.tistory.com/56 구글에서 파이썬 셀레니움을 통한 이미지 크롤링 3월 초부터 해결 방법을 알지 못해 손을 놓고 있던 이미지 크롤링을 몇 일 전부터 계속 구글링했다. 뭐가 문제인지 정말 많이 찾아봤었는데 범인은 코랩이었나보다.. 나는 정말 코랩이를 좋아했 durian9s-coding-tree.tistory.com 드론과 새의 이미지를 크롤링하여 저장했는데, 필요없는 사진은 제거하고 1:9의 비율로 트레이닝 셋과 테스트 셋으로 나누었다. CNN을 통한 드론/새 분류기를 만들어 보도록 하겠다. CNN의 설명을 내가 잘하면 좋겠는데.. 설명을 잘 못하니까 정말 정리가 잘되어있는 블로그를 첨부하겠다. taewan.kim/pos..

    구글에서 파이썬 셀레니움을 통한 이미지 크롤링

    3월 초부터 해결 방법을 알지 못해 손을 놓고 있던 이미지 크롤링을 몇 일 전부터 계속 구글링했다. 뭐가 문제인지 정말 많이 찾아봤었는데 범인은 코랩이었나보다.. 나는 정말 코랩이를 좋아했는데.. 편하고 인터넷으로 바로 켤 수 있고.. 근데 코랩이에서 크롬 드라이브 경로를 넣어도 인식을 못했다. 혹시나 해서 주피터 노트북에 넣고 돌려보니 바로 진행되었다. 내 사라진 시간들은 나의 멍청함이 먹어 치웠나보다 ㅎㅎ www.youtube.com/watch?v=1b7pXC1-IbE 조코딩님의 이미지 크롤링 자료를 2개 봤는데 다른 하나는 구글에서 막아놔서 사용이 불가능 했고, 셀레니움을 통한 크롤링은 사용이 가능했다. # 크롬 드라이브를 다운받아야한다. chromedriver.chromium.org/downloa..

    SVM을 통해 구매 가능성이 있는 고객 분류하기

    SVM을 통한 구매 가능성이 있는 고객 분류하기 이 포스팅은 앞선 K-NN을 통한 구매 가능성이 있는 고객 분류하기와 같은 자료를 사용하지만 다른 머신러닝을 통해 분류를 해 볼 것이다. import numpy as np import matplotlib.pyplot as plt import pandas as pd from sklearn.preprocessing import StandardScaler from sklearn.model_selection import train_test_split from sklearn.svm import SVC from sklearn.metrics import confusion_matrix 라이브러리 import df = pd.read_csv('Social_Network_Ad..

    공항 기상 시각화

    어떤 자료를 이용해서 시각화 할 지 고민했는데, 전 직장에서 해외 공항 자료를 작성했을 때 해당 지역의 기상 자료를 활용했던 것이 생각이 났다. 공공데이터 포털에서 공항의 일별 기상자료를 다운받았다. www.data.go.kr/data/15052608/fileData.do 공공데이터 포털 국가에서 보유하고 있는 다양한 데이터를『공공데이터의 제공 및 이용 활성화에 관한 법률(제11956호)』에 따라 개방하여 국민들이 보다 쉽고 용이하게 공유•활용할 수 있도록 공공데이터(Datase www.data.go.kr 시각화에 필요한 라이브러리와 matplotlib에 한글을 사용하기 위한 라이브러리 import. 이 또한 jupyter notebook을 사용해서 코딩했다. import pandas as pd impo..

    인천 1호선 일자 및 시간대별 승하차 현황 시각화/prophet을 통한 승객 수요 예측

    www.data.go.kr/data/15060369/fileData.do 공공데이터 포털 국가에서 보유하고 있는 다양한 데이터를『공공데이터의 제공 및 이용 활성화에 관한 법률(제11956호)』에 따라 개방하여 국민들이 보다 쉽고 용이하게 공유•활용할 수 있도록 공공데이터(Datase www.data.go.kr 먼저, 공공 데이터 포털에서 자료를 다운로드 받는다. 자료는 인천 1호선 19년도 일별 승하차 현황이다. 라이브러리 임포트 import pandas as pd import numpy as np import matplotlib.pyplot as plt %matplotlib inline import seaborn as sns 오늘은 코랩이 아닌 아나콘다의 jupyter notebook에서 코딩을 했다...

    K-NN을 통해 구매 가능성이 있는 고객 분류하기

    라이브러리 import import numpy as np import pandas as pd import matplotlib.pyplot as plt import seaborn as sb from sklearn.preprocessing import StandardScaler from sklearn.model_selection import train_test_split from sklearn.neighbors import KNeighborsClassifier from sklearn.metrics import confusion_matrix csv파일 불러오기 df = pd.read_csv('Social_Network_Ads.csv') df.head() 자료의 형태, 타입, NaN데이터 확인 df.info()..

    stramlit으로 크롤링을 통한 기사제목 워드클라우드 시각화하기

    스트림릿을 통한 기사제목 워드클라우드 시각화를 구현했다. 앞글의 내용과 거의 비슷하지만 VSCode를 통해 streamlit으로 시각화 했다는점에서 차이가 있다. import requests from bs4 import BeautifulSoup import matplotlib.pyplot as plt from konlpy.tag import Kkma from konlpy.tag import Okt from wordcloud import WordCloud import nltk import streamlit as st def main(): st.header('최대 7일 이내의 뉴스 키워드를 찾을 수 있습니다') date = st.text_input('키워드를 보고싶은 일자를 입력해주세요. ex)2021032..

    기사 제목 크롤링을 통한 워드클라우드 시각화하기 [완료]

    기쁨의 워드클라우드 탈출기. 무언가 해놓은게 없다는 판단에 배운거라도 써먹을 수 있도록 기사제목 크롤링 후 워드클라우드로 일자 별 키워드를 한눈에 볼 수 있는 코드를 짜봤다. 3월 21일에 시작을 하고 끝까지 다 왔지만 워드클라우드의 한글 폰트 적용문제로 3일간 디버깅을 시도하였고, 코랩, VS Code, Jupyter notebook등에서 시도해도 되지 않던 한글폰트 적용을 24일 밤에 성공했다 ㅋㅋㅋㅋ 남들에겐 아무것도 아닌 쉬운 작업일지 몰라도 뉴비인 나에겐 엄청 큰 발전이다. 아래는 코드. pip install konlpy #한글의 형태소 분석등을 위한 꼬꼬마를 사용하기위해 설치 import requests import pandas as pd from bs4 import BeautifulSoup ..