학교

cpu는 한 번에 하나 밖에 처리 못함gpu는 동시에 여러 개를 처리 가능 cuda, gpu computing 이 일반화됨cpu로는 수행시간이 오래걸림 USE_CUDA = torch.cuda.is_available() # GPU를 사용가능하면 True, 아니라면 False를 리턴device = torch.device("cuda" if USE_CUDA else "cpu") # GPU 사용 가능하면 사용하고 아니면 CPU 사용print("Device:", device) 위 코드에서USE_CUDA = torch.cuda.is_available() # GPU를 사용가능하면 True, 아니라면 False를 리턴 다음 코드는 GPU를 사용가능하게 함 random.seed(777)torch.manual_seed(77..
데이터셋 - 표준/개발용( ex. iris data) MNIST : 0~9 의 숫자를 필기체로 저장해놓은 것 MNIST 는 총 4개의 파일로 구성되어 있다. 학습용(6만개) 평가용( t 는 test, 10 k = 10000을 뜻함)   위에서 image 는 그림을 뜻하고 label 은 클래스(숫자)를 뜻한다. idx3, idx1 에서 1은 1byte 를 , 3은 3byte 를 뜻한다.mnist 데이터셋에서1번째 : 매직넘버(4 byte)2번째 : 이미지 개수(4  byte)3번째 : 이미지 행수(4 byte, 28행) 4번째 : 이미지 열수(4 byte, 28열)위 그림에서 총 byte 용량은 9,912,422 bytes 는 압축되기 전 47,040,016 bytes 이고 구성은   4 + 4 + 4 +..
https://lipcoder.tistory.com/187 허프만(Huffman) 트리를 이용한 텍스트 압축개요 허프만 코딩(Huffman coding)은 텍스트 압축을 위해 널리 사용되는 방법으로, 원본 데이터에서 자주 출현하는 문자는 적은 비트의 코드로 변환하여 표현하고 출현 빈도가 낮은 문자는 많은 비lipcoder.tistory.com요약 : 허프만 코드는 숫자의 빈도를 이용하여 만든 압축 코드를 말한다. (컴퓨터 네트워크에서 암호화, 복호화 과제와 비슷) 셀 정렬 병합정렬   기수정렬  정렬 중에는 퀵 정렬이 제일 좋다.
수업 - 289쪽 1번부터 5번까지 실습함실습 답 비번 : 1290 과제  - 292쪽 10, 11번
1. kmp 알고리즘kmp보다 보이어 무어가 더 좋다. (업그레이드된 버젼)  a는 접두사 밖에 없으므로 0ab 는 접두사가 a 접미사가 b 이므로 0aba 는 접두사가 a 접미사가 a 이므로 1abac 는 접두사가 a, 접미사가 c  또는 접두사가 ab, 접미사가 ac 이므로 0... abababac 에서 접두사와 접미사가 ab로 같으므로  bc 가 다르기 때문에 abac 를 2칸 뒤로 옮긴다. kmp 의 단점 :  문장이 길 경우에 접두사와 접미사가 같은지 확인하는 작업 또한 오래걸릴 수 있다.2. 보이어 무어 알고리즘보이어 무어는 끝에서부터 비교를 한다. 이번주 수요일 허프만코드 수업할 예정
반복문 끝까지 나감 과제.250p 6, 7번  251p 10, 11번
연습문제 답1. 1번2. 2번3. 4번4. 4번 4번 문제에서 h2(k) 는 h1(k) + 5 - (k mod 5 ) 의 결과가 나와야 한다.오토마타 넘어감 라빈카프는 문자열을 수치화 시켜서 비교하는 방식이다.앞에 5를 곱하는 이유는 c e b b 의 자릿수가 달라졌기 때문이다. +2 는 c를 뜻한다.두 번째 a2 부터는 a1 즉 전의 계산된 수를 가지고 계산하기 때문에 속도가 빨라진다.
floss -> 한 객체가 생성됨 MSELoss 함수는 Mean Square Error 을 뜻함cost 함수는 floss 가지고 만듦 첫째 줄에서는 nn.MSELoss()를 사용하여 평균 제곱 오차 손실 함수를 생성합니다. 이것은 주어진 입력과 타겟 사이의 평균 제곱 오차를 계산하는 데 사용됩니다. 주로 회귀 문제에서 사용됩니다. 둘째 줄에서는 optim.SGD()를 사용하여 확률적 경사 하강법(SGD) 옵티마이저를 생성합니다. SGD는 학습 중에 모델 파라미터를 조정하여 손실 함수를 최소화하는 방향으로 진행합니다. lr 매개변수는 학습률을 나타냅니다. 셋째 줄에서는 nn.Sigmoid()를 사용하여 시그모이드 활성화 함수를 생성합니다. 시그모이드 함수는 입력을 [0, 1] 범위로 압축합니다. 주로 이진..
변형 과제 C E lll 을 테스트 케이스로 두고 결과 보이기 다층 퍼셉트론(학습부분)# MLP# 2 class : XOR# 4 patterns / 1 class# 2 Layerimport numpy as npimport math as mdef sigmoid(x) : return(1.0/(1+m.exp(-x)))lrate = 0.05INDIM = 26H1DIM = 5OUTDIM = 3PTTN_NUM = 3x = np.array([[1.0, 1.0, 1.0, 1.0, 1.0, 1.0, 0.1, 0.1, 1.0, 0.1, 0.1, 0.1, 0.1, 1.0, 0.1, 0.1, 0...
인덱스 테이블의 크기가 줄어들면 배열의 인덱스를 저장하는 간격이 커짐위 예제에서는 인덱스 테이블의 크기가 3이고 인덱스를 저장하는 간격이 3 이였는데 인덱스 테이블의 크기가 2 가 되면 인덱스를 저장하는 간격이 4로 커지게 된다.반대로 인덱스 테이블의 크기가 커지면 배열의 인덱스를 저장하는 간격이 줄어든다.          해싱에서 시험문제를 내면 대부분 디비전 함수에서 냄  진법 변환 함수, 비트 추출함수 넘어감체이닝 방법 넘어감선형조사를 하면 1차군집(특정 지역이 쏠리는 경우 발생)에 취약선형조사의 문제점을 해결한 것이 이차원 조사 나중에 시험문제를 내면 위의 표 형태로 낼 듯
공부 기록장
'학교' 카테고리의 글 목록 (3 Page)