본문 바로가기

Python/Machine Learning13

Til - 23day 딥러닝의 심오함...끝까지 달려보자~ Convolutional Neural Networks (합성곱 신경망) : CNN 합성곱을 이용한 딥러닝 구조 Filter : kernel 커널이라고도 불리며 인풋값을 필터에 거쳐 특성맵을 뽑을 수 있다. Strides : 필터가 움직이는 간격 Padding : 인풋값과 특성맵을 크기를 맞추기 위해 패딩값을 준다. 필터 여러개를 사용하여 성능을 높임 CNN 구성 합성곱 계층(Convolution layer)과 완전연결 계층(Dense layer)을 함께 사용 Convolution(+활성화 함수) -> 풀링(Pooling)의 반복 풀링 계층(Pooling layer) : 특성 맵의 중요부분을 추출하여 저장하는 역할 = Max / Average 으로 구분 평탄화 계층(F.. 2022. 5. 17.
Til - 22day 월요일! 2주차 아침퀴즈를 마치고 머신러닝을 달려본다!! 딥러닝[Deep learning == Deep neural networks == Multilayer Perceptron(MLP)] 딥러닝의 역사 AND, OR 문제를 논리회귀로 풀고 표현한 모양을 퍼셉트론(Perceptron)이라 명칭 선형회귀로 풀지 못하는 XOR 문제 발생 Multilayer Perceptrons (MLP)라는 개념을 도입했으나 당시 기술로는 불가능 Backpropagation(역전파) : 출력에서 Error(오차)를 발견하여 뒤에서 앞으로 점차 조절하는 방법 역전파 알고리즘 발견으로 XOR 문제를 해결 Deep Neural Networks 구성 방법(딥러닝의 네트워크 구조) Layer(층) 쌓기 : 마름모 형태 Hidden l.. 2022. 5. 16.
Wil - 4week 머신러닝을 공부를 사직하고나서 오랜만에 학생때로 돌아간 기분으로 공부했다! 무슨 소리인지..워딩이 중요한데..주말에도 강의는 계속된다~ 논리 회귀 (Logistic regression) == sigmoid : 특정 변수에 대한 확률값이 선형이 아닌 S 커브 형태를 따르는 경우가 많으며 이러한 S-커브를 함수로 표현해낸 것 가설 : 시그모이드 함수에 선형회귀식이 들어간 형태 손실함수 : y=1에서 예측값이 0일 경우 확률이 0%가 되도록 해야하고, 예측값이 1일 경우 확률이 100%가 되도록 한다. activation='sigmoid' Keras에서 이진 논리 회귀의 경우 binary_crossentropy 손실 함수를 사용 다항 논리 회귀 (Multinomial logistic regression) : .. 2022. 5. 16.
Til - 21day 파일들을 없는 것처럼 무시하게 하는 설정이 바로 .gitignore 입니다. git 강의의 복습! 그리고 정리. 버전 관리: 프로젝트 상태가 변경되는 정보를 알고 있다는 것입니다. Git 은 가장 널리 쓰이는 버전관리 도구 중에 하나로 commit 을 사용해서 버전이 달라지는 것을 관리합니다. git 초기화(git initialize) : 컴퓨터에 있는 프로젝트를 Git 이 관리하는 프로젝트로 만들 수 있습니다. 앞으로 Git 으로 관리할꺼야! 하고 설정해주면 됩니다. 이 작업을 한다고 표현합니다. commit : 현재 프로젝트의 상태를 찰칵 저장하는 것을 이라고 합니다. 누가(author), 언제 commit 했는지의 정보와 프로젝트 변경 내용 작업내역이 어떤 것인지 알아볼 수 있게 적는 메시지를 'c.. 2022. 5. 13.