본문 바로가기

study

(24)
혼공 파이썬 2주차 ■ 정수 나누기 연산자 : // 1.5 1 2.44046 2.0 2 // 연산자는 소수점 이하의 내용을 버리는 것이다. 실습코드를 보면 float 실수형에 대해서는 결과값이 실수형으로 나온다. 정수형에 대해서는 정수형 결과가 나온다. ■ 나머지 연산자 : % 우리가 알고 있는 나머지 값을 추출합니다. 1 2.2022999999999993 2 화면과 같이 정수 / 실수에 따라서 계산하고 남은 나머지 값을 출력합니다. ■ 제곱 연산자 : ** print(1**6) print(2**5) print(3**4) print(4**3) print(5**2) print(6**1) ■ 다른 언어 (c,java)사용하시다가 가장 처음 당황하는것 P.115) python은 변수를 정의할때, 자료형을 미리 정의하지 않습니다...
혼공 파이썬 1주차 ■ 폰트 D2Coding (2018년부터 업데이트 없음) https://github.com/naver/d2codingfont/releases/tag/VER1.3.2 NanumGothicCoding 2.5 (2016년 이후 업데이트 없음) https://github.com/naver/nanumfont/releases/tag/VER2.51 PS: 내가 2개의 폰트를 같은거라고 생각하고 있었다. 2개가 개별적으로 있는것 때문에 기록합니다. ■ 색테마는 여기서 설정하기 ■ 기록하기 p.70) time처럼 keyword라는 keyword.py라는 파일이 기본적으로 제공된다. p.72) python은 스네이크 케이스를 사용한다고 알고 있었는데, 두가지 모두 사용 한다고 합니다. 다시한번 체크해야 할거 같습니다. ※..
혼공 머신러닝/딥러닝 6주차 7장부터 딥러닝 파트가 시작됩니다. ■ 7장 : 딥러닝 ☞ 대표적인 알고리즘 : 인공신경망 ☞ 대표적인 신경망 알고리즘 : 텐서플로, 케라스 ■ 기본미션 1. 어떤 인공 신경망의 입력 특성이 100개이고 밀집층에 있는 뉴런 개수 10개 일때 필요한 모델 파라미터의 갯수는 몇개인가요? ① 1,000개 ② 1,001개 ③ 1,010개 ④ 1,100개 ☞ 정답: 3 ☞ 풀이 입력층에 X0, X1,...., Xn 영역에 100개가 입력됨 뉴런 : (P.348참고) 출력층의 파란색 동그라미를 계산하는 단위!! 이것이 10개로 나온다 모델 파리미터는 머신러닝에서도 학습한것처럼 최적의 값을 찾아가기 위한 값인데요 입력층 x 은닉층(Hidden Layer)와의 관계가 모든 경우의 수만큼 엮이기 때문에 100*10 = ..
혼공 머신러닝/딥러닝 5주차 1~5장까지는 지도 학습의 내용이고, 이제 비지도 학습이 시작되는 6장입니다. ■ 6장 : 비지도 학습 ☞ 대표적인 군집 알고리즘 : k-평균, DBSCAN 학습 ☞ 대표적인 차원 축소 알고리즘 : 주성분 분석(PCA) 학습 비지도 학습에 군집 vs 차원축소 크게 2가지에 대해서 개념을 잘 정립해야 합니다. ■ 6-1장 : 군집 알고리즘 대표적인 비지도 학습 중에 하나 비지도 학습에서는 타깃값을 모르기때문에 샘플의 평균값을 알수가 없다. → "k평균" 이용 클러스터 : 군집 알고리즘으로 만든 그룹 ■ 6-2장 : k-평균(군집 알고리즘) 평균값을 자동으로 찾아줌, 클러스터의 중심에 위치하기 때문에 (클러스터 중심, 센트로이드)라고 불리움 어떠한 것이 있는지 알수가 없기 때문에, 아래와 같이 평균값을 찾아..
혼공 머신러닝/딥러닝 4주차 ■ 5장 : 트리 알고리즘 ☞ 성능이 좋고 이해하기 쉬운 트리 알고리즘 ☞ 알고리즘 성능 최대화를 위한 하이퍼파라미터 ☞ 여러 트리를 합쳐 일반화 성능을 높일수 있는 앙상블 모델 ■ 5-1 : 결정트리 1차시도 : sklearn - LogisticRegression (로지스틱 회귀 모델) 2차시도 : sklearn - DecisionTreeClassifier (결정트리) 결정트리가 무조건 좋은 것일까? 언제 사용해야 하나? 로지스틱 회귀모델의 성능이 안좋을때 검토 가능 이유를 설명하기 쉽다 (노드별로 판단기준을 확인가능) 표준화 전처리 과정이 필요 없다. 어떤 특성이 가장 유용한지 나타내는 특성 중요도를 계산해줌 ■ 5-2 : 교차검증과 그리드 서치 검증세트 훈련세트(60%), 검증세트(20%), 테스트..
혼공 머신러닝/딥러닝 3주차 ■ 4장 : 다양한 분류 알고리즘 (럭키백 확률 계산) ☞ 로지스틱 회귀, 확률적 경사 하강법과 같은 분류 알고리즘 배우기 ☞ 이진분류와 다중 분류의 차이를 이해하고, 클래스별 확률 예측하기 학습하기 이전장 까지 지도학습의 (분류:Classcification / 회귀 : Regression)을 학습하였다. 여기에서 좀더 다른 알고리즘을 배우는것 같다. 분류에서는 이진분류 / 다중분류를 배우고 → (분류를 하는 기준이 좀더 다른 방법을 배울것 같고) 회귀에서는 로지스틱 회귀, 경사 하강법을 배울것 같다. → (정확한 값을 알수 없기에 데이터에 특성에 따라서 로지스틱, 경사 하강 같은 기법을 배울것 같다) 목차만 보고 예상을 한 것이니, 세부 사항은 실제 학습 내용과 다를수 있다. → 로지스틱 회귀는 분류 ..
혼공 머신러닝/딥러닝 2주차 ■ 3장 정리 ☞ 회귀 알고리즘에 대한 학습 (일반 회귀)주변의 평균을 구해서 예측 → 결정계수(회귀모델의 점수) → (선형회귀) input범주를 넘어가는 범주를 예측하기 → (다항회귀) 다항식(2차원 방정식)을 사용한 선형회귀 → (다중회귀) 여러개의 특성을 사용한 선현회귀 ☞ pandas 지도학습 (정답을 미리 알려주고 학습을 진행) sklearn의 neighbors의 제공 Class 분류(classification) (KNeighborsClassifier, 1,2장에서 사용) 의미 그대로 구분지어서 분류하는것 (이전장에서 도미와, 농어를 구분) 회귀 (regression) (KNeighborsRegressor, 3장에서 사용) 예측하는것에 대한것 / 이웃에 대한 샘플에 대한 평균을 이용함 제공되는 ..
혼공 머신러닝/딥러닝 1주차 ■ Self-정리 코랩/jupyter/Github에서 많이 사용하는 마크다운 문법이 필요한 것만 정리되어 있어서 좋았다. 굴게 쓰기 : **ㅁㅁ** 취소선 : ~~ㅁㅁ~~ 빽택 : 코드 서체로 작성 > : 들여쓰기 2차원 리스트 구성 (python코드 방식) fish_data = [ [l, w] for l, w in zip(length, width)] zip()함수와 List 내포기능 사용 추후에는 numpy함수를 이용해서 처리 기준 정하기 차트를 그릴때도, x축, y축의 범주로 인하여 전혀 다른 차트가 되기도 함 표준점수 / 표준편차를 이용하여서 동일하게 적용 ■ 기본 미션 실행화면 캡처 ■ 선택 미션