분류 전체보기 (248) 썸네일형 리스트형 Lecture 06: Java Programming Basics (5) - 1차원 배열 생성밥법의 예는 int [] a =new int[10]; 또는 int a [] = new int[10]; 이다. - 초기화안하면 0, null, false으로 초기화된다. - 배열 범위 벗어난 index에 접근했을 경우 C에서는 그냥 실행시키지만, Java에서는 에러 발생시킨다. - 어떤 타입이든 배열 a의 길이는 a.length로 알 수 있다. 메소드가 아닌 것에 주의하자. - 배열을 복사하는 방법은 두 가지다. =를 이용하는 것과 arraycopy()를 이용하는 것이다. =를 사용하면 주소를 복사하는거여서 같은 배열을 가리키게 된다!(메모리 할당 필요X) arraycopy는 값을 복사시키는거고 서로 다른 배열이다(메모리 할당 필요O) - 2차원 배열의 생성방법 예는 int a[][] .. Lecture 05: Java Programming Basics (4) - String은 class이고, String에 값을 할당하는 법은 2가지다. Assigning a string literal과 Creating a new String object. 1 2 String a = "Java"; String b = new String("Java"); cs - String literal은 "String Constant Pool"이라 불리는 메모리 영역에 저장된다. 같은 값이 뒤에 중복되면 같은 object를 가리킨다. - String object는 만들어지면, 특정 메모리 공간에 할당된다. 같은 값이 뒤에 중복되어도 다른 object이다. - "=="는 같은 object인지 확인하고, equals 메소드는 같은 값인지 확인한다. (같은 값인데 다른 object인 경우 주의) -.. [AI정책포럼] "GPT-3는 어떻게 언어를 이해하는가?" ※강연을 들으며 정리한 내용입니다. ※주제 AI가 사람처럼 글을 쓰기까지의 과정 (부제: 딥러닝 언어처리 시작부터 GPT-3까지) ※목차 (1) 딥러닝 언어처리 기초 (2) 워드 임베딩 (3) BERT & GPT (4) GPT-3 (5) 논의 및 Q&A (1) 딥러닝 언어처리 기초 - 자연어 == symbol & 딥러닝 == neural이다. 자연어처리에 필수 단계는 심볼을 계산 가능한 실수 값으로 변환하는 것이다. (자연어 어휘 단위는 영어word/한국어 형태소/음절/etc) - 각 단어에 맞는 실수값은 무엇이며 어떻게 계산하는지는 word2vec, BERT , GPT 등이 결정한다. (2) 워드 임베딩 - Word2vec는 단어를 Continuous Vector Space에 표현하는 방법이다. 이는 .. [Lesson 7] Time Series Forecasting - Time series(시계열)은 일정 시간 간격으로 배치된 데이터들의 수열을 말한다. Time series prediction(시계열 예측)이라고 하는 것은 주어진 시계열을 보고 수학적인 모델을 만들어서 미래에 일어날 것들을 예측하는 것을 뜻하는 말이다. - In this course I will learn how to train deep neural networks to forecast time series. - Time series is an ordered sequence of values usually equally spaced over time every year, day, second or even few microseconds like in the audio clip example. The.. [Lesson 6] Saving and Loading Models - Very deep and complex models can take days or even weeks to train. we can save our models after we finish training them. - Tensorflow provides a direct way to take my saved models and deplay them on different platform. - TensorFlow makes this all possible through its saved model format. - A SavedModel contains all the information about the model including the weight values, the model's archite.. [Lesson 5] Transfer Learning - In the previous lesson, we started out by training a CNN based image classifier to recognize images of cats and dogs. - In this lesson, we'll introduce a technique called transfer learning that reuses the model that was created by machine learning experts and that has already been trained on a large data set. - As it turns out, we can take advantage of high-performance neural networks by using.. [Lesson 4] Going Further with CNNs (3) - In the previous lesson, we checked how well our neural networks were performing by looking at the accuracy on the test sets. - To avoid overfitting, we often introduce a validation set. After every training epoch, we check how the model is doing by looking at the training loss and the loss in the validation set. - It's important to note that the model does not use any part of the validation se.. [Lesson 4] Going Further with CNNs (2) - In a previous lesson, we learned how to perform convolutions on grayscale images. But, how do we perform a convolution on a color image? - To perform a convolution of this kernel with the given grayscale image, we center our kernel over the pixels of the image, and take each corresponding pixel and kernel value, multiply them together, sum the whole thing up. - Remember that we can add zero pa.. 이전 1 ··· 24 25 26 27 28 29 30 31 다음