본문 바로가기
반응형

딥러닝20

[논문 코드 구현]global local image completion 2020/11/03 - [딥러닝/논문리뷰] - [Image impainting]Globally and Locally Consistent Image Completion import sys, os os.environ["CUDA_DEVICE_ORDER"]="PCI_BUS_ID" os.environ["CUDA_VISIBLE_DEVICES"]='0' import tensorflow as tf import numpy as np import glob import pathlib import matplotlib.pyplot as plt import PIL config = tf.compat.v1.ConfigProto() config.gpu_options.allow_growth = True session = tf.compa.. 2020. 11. 23.
[word2vec] 카카오 댓글데이터로 word2vec 임베딩 해보기 # 불용어 정의 stopwords = ['의','가','이','은','들','는','좀','잘','걍','과','도','를','으로','자','에','와','한','하다','\n'] okt = Okt() tokenized_data = [] for sentence in contents: temp_X = okt.morphs(sentence, stem=True) # 토큰화 temp_X = [word for word in temp_X if not word in stopwords] # 불용어 제거 tokenized_data.append(temp_X) # 리뷰 길이 분포 확인 print('리뷰의 최대 길이 :',max(len(l) for l in tokenized_data)) print('리뷰의 평균 길이 :',s.. 2020. 11. 10.
[CNN]tensorflow 없이 numpy로만 convolution 날코딩 하기 import numpy as np from matplotlib import pyplot as plt class NN: def __init__(self,n_i,n_h,n_y): self.w1 = np.random.rand(n_i,n_h) self.w2 = np.random.rand(n_h,n_y) def sigmoid(self,z): return 1./(1.+np.exp(-z)) def dsigmoid(self,z): # sigmoid 미분 return z*(1. - z) def layer(self,inputs): print('self.sigmoid(np.dot(inputs,self.w1))') self.hidden = self.sigmoid(np.dot(inputs,self.w1)) print(self... 2020. 11. 10.
자연어 처리 보면 좋을 자료 모음 brunch.co.kr/@goodvc78/16?fbclid=IwAR1QZZAeZe_tNWxnxVCRwl8PIouBPAaqSIJ1lBxJ-EKtfDfmLehi1MUV_Lk 2020. 11. 10.
[금융]corr matrix을 이용한 계층적 클러스터링을 이용해보기 sns.clustermap을 이용하면 공분산 행렬의 히트 맵 표현을 플로팅하고 비지도 군집화인 hierarchical clustering algorithm을 실행하여 군집의 개수를 자동적으로 묶어주면서 가장 밀접하게 관련된 feature를 선별할수 있습니다. corr_matrix = df.corr() correlations_array = np.asarray(corr_matrix) linkage = hierarchy.linkage(distance.pdist(correlations_array), \ method='average') g = sns.clustermap(corr_matrix,row_linkage=linkage,col_linkage=linkage,\ row_cluster=True,col_cluste.. 2020. 11. 10.
[Keras] Attention 을 이용해 자연어 감성 분석 해보기 : Hierarchical Attention Networks for Document Classification 구현 데이터 셋 : Imdb import tensorflow as tf gpus = tf.config.experimental.list_physical_devices('GPU') if gpus: try: # 첫 번째 GPU만 사용하도록 제한 tf.config.experimental.set_visible_devices(gpus[0], 'GPU') except RuntimeError as e: print(e) MAX_SENTENCES = 10 MAX_SENTENCE_LENGTH = 25 import os, re import pandas as pd import tensorflow as tf from tensorflow.keras import utils dataset = tf.keras.utils.get_file( f.. 2020. 11. 10.
반응형