전체 글

깃허브 : DongHun3946 백준 : a3989957
사람, 강아지, 차 이미지를 320 x 320 크기로 256_gray,    .bmp 파일형식으로 2장씩 학습해서 각각 분류해주는 코드 만들기
성능 비교는 속도, 인식률을 비교한다.epoch 1 번 돌렸을 때epoch 2 번 돌렸을 때....epoch 10 번 돌렸을 때 성능 비교해보기CNN_M1 은 3층 레이어 일 때 , CNN_M2는 2층 레이어 일 때 overfitting (과다적합) : epoch 가 과도하게 늘어나면 정확도가 0으로 수렴▶수업시간에 해본 것3층 레어어(784, 120, 80 , 10), 2층 레어어(784, 120,  10), 1층 레어어(784, 10)에서 epoch가 1, 5, 10 일 때 정확도 확인해보기 컨볼루션 7x7x32 , 풀링 파트 (2,2) 하나 더 넣어보기 -> 출력은 3x3x32import torchfrom torch import tensorfrom torchvision import datasetsf..
3,5,9,10 번 풀이 수업함 txt 파일 비번 : lee1234다음주 화요일 시험다음주 수요일 수업없음
최초로 CNN 모델을 구현한 모델 : LeNet 특징 추출이 끝났으면 분류 단계에 입성           torch.cuda.is_available() 함수는 CUDA가 사용 가능한 경우 True를 반환하고, 그렇지 않은 경우 False를 반환한다만약 device가 'cuda'인 경우, CUDA를 사용하는 모든 장치의 난수 생성기 시드를 777로 설정한다       여기서 ReLu 함수는 그 값 그대로          내일은 CNN 모델 코드 변화시키면서 어떤 작용을 하는지 확인해보는 수업함
#include using namespace std;template class Stack {private: T* stack; //스택 구현을 위한 포인터 변수 T* temp; //데이터를 임시로 보관하기 위한 포인터 변수 T re; //pop 함수에서 삭제되는 값을 임시로 저장하기 위한 변수 int STACK_SIZE = 10; //스택의 기본 크기(상수) int top; //스택의 최상위 원소의 인덱스를 추적하는 변수 int size_value; //스택의 크기 조절을 위한 배수 값을 저장하는 변수public: Stack() { cout int Stack::capacity() { //전체 ..
과잉적합 -> 너무 많이 공부해도 문제CNN -> Convolutional neural networkchat GPT -> 생성형 신경망 저급레벨과 고급레벨을 거치다보니 층이 깊어짐입력에서 특징을 추출하고 그걸 분류한다.특징추출도 여러 단계를 거침(처음엔 저급 특징이였다가 고급특징으로 감) (저급특징을 여러개 묶으면 고급특징이 됨)층 l-1 과 층 l 에서 64개의 곱셈을 한다이렇게 연결된 걸 fully connected 라 한다.오른쪽 (b) 그림에서 j 는 i-1, i, i+1 과 계산하는 것처럼 자신과 가까운 점만 본다.왼쪽 그림 : 64번 계산 , 오른쪽 그림 : 24번 계산  기호는 곱한 걸 더한다는 뜻그림(a)는 1차원 컨볼루션그림(b)는 2차원 컨볼루션음성은 1차원이기 때문에 1차원 컨볼루션 ..
공부 기록장
Dong_hun