본문 바로가기

컴퓨터이야기

(79)
np.argsort 역순으로 A = np.array([[1, 3, 2, 7], [2, 4, 1, 3], [6, 1, 2, 3]]) np.argsort(-A) => 이렇게 하면 된당 [[3 1 2 0] [1 3 0 2] [0 3 2 1]]
[펌]Kullback-Leibler Divergence KL Divergence 두 확률분포의 차이를 계산하는 데에 사용하는 함수 KL Divergence는 정보 이론에서 그 유래를 찾아볼 수 있습니다. 정보 이론의 주요 목적은 얼마나 많은 정보가 데이터에 들어있는지 정량화하는 것입니다. 정보이론에서 가장 중요한 측정 기준은 엔트로피입니다. 이는 보통 H로 표기됩니다. 어떤 확률 분포에 대한 엔트로피의 정의는 다음과 같습니다. 만약 우리가 (밑이 2인 로그)를 사용한다면 엔트로피를 “정보를 인코딩하는데 필요한 최소한의 비트 수”로 해석할 수 있습니다. 이 경우에 정보는 우리의 경험적 분포를 고려한 이빨 갯수의 각 관찰일 것입니다. 우리가 관찰한 데이터가 주어졌을 때, 확률분포는 3.12 bits의 엔트로피를 가집니다. 이러한 비트 수는 우리가 정보를 인코딩하..
Time 모듈 [펌]한빛미디어유닉스와 리눅스는 1970-01-01 00:00:00부터 현재 시간까지의 초를 누적한 시간을 사용합니다.그럼 1970년 1월 1일 0시 0분 0초는 어떻게 시작된 것일까요? 유닉스는 최초 개발 이후 시간 정보를 기록하기 위해 임의 날짜를 결정할 필요가 있었는데 공교롭게도 그 날짜를 1970년 1월 1일 0시 0분 0초라고 삼은 것입니다. 많은 사람들이 유닉스 시간이 1970년부터 시작하는 이유를 유닉스의 탄생 시각으로 알고 있지만 그건 사실이 아닙니다. 이미 1960년대 후반에 거칠게 만들어진 유닉스가 있었기 때문이죠. 유닉스 타임스탬프를 조금 더 쉽게 이해해볼까요? 여러분이 이 글을 읽는 시점부터 43초 뒤는 몇시 몇분 몇초일까요? 아마도 바로 대답하기 힘들 것입니다. 그런데 1970년 ..
MNIST 러닝 MNIST 데이터베이스 (Modified National Institute of Standards and Technology database)는 손으로 쓴 숫자들로 이루어진 대형 데이터베이스이며, 다양한 화상 처리 시스템을 트레이닝하기 위해 일반적으로 사용된다. ** 퍼옴 # MNIST 데이터를 다운로드 한다.from tensorflow.examples.tutorials.mnist import input_datamnist = input_data.read_data_sets("MNIST_data/", one_hot=True) # TensorFlow 라이브러리를 추가한다.import tensorflow as tf # 변수들을 설정한다.x = tf.placeholder(tf.float32, [None, 784]..
[펌] Summary: Best Facial Recognition APIs for Apps and Software Summary: Best Facial Recognition APIs for Apps and SoftwareAPIAvailable EndpointsCreated byAll Time Users on RapidAPI (as of 5/23/2018)PricingKairos7Kairos12,096Starting at $500/month Additional pricing tiers availableTrueface.ai9Trueface.ai432Free up to 1,000 calls/month Additional pricing tiers availableAWSRekognition9Amazon21,252Free up to first 1,000 minutes/month for first year Additional p..
[펌]유니그램 모델 unigram model간단히 설명하자면, 각 단어의 빈도 수를 세어서 전체 단어수로 나누어 준 것으로 확률 모델을 만드는 것이다. 확률론적 언어 모형¶확률론적 언어 모형(Probabilistic Language Model)은 mm개의 단어 w1,w2,…,wmw1,w2,…,wm 열(word sequence)이 주어졌을 때 문장으로써 성립될 확률 P(w1,w2,…,wm)P(w1,w2,…,wm) 을 출력함으로써 이 단어 열이 실제로 현실에서 사용될 수 있는 문장(sentence)인지를 판별하는 모형이다.이 확률은 각 단어의 확률과 단어들의 조건부 확률을 이용하여 다음과 같이 계산할 수 있다.P(w1,w2,…,wm)===P(w1,w2,…,wm−1)⋅P(wm|w1,w2,…,wm−1)P(w1,w2,…,wm−2)⋅..
Sentibank classfier Visual Sentiment Ontologyhttp://www.ee.columbia.edu/ln/dvmm/vso/download/sentibank.html 이 툴로 Sentiment를 구할 수 있다. Sentiment prediction도 가능하지만, 1200-D mid-level representation을 제공한다.매트랩으로 구성되어 있고, R2013a 버전에서 수행하고 매트랩 구성요소 중 Image processing toolbox와 math, statistics 과 같은 패키지가 필요하다. 제공되는 소스&바이너리 코드를 설치하고 mysent.m을 통해 피쳐를 추출한다. %function mysent(path_name) path_name = 'E:\vm_temp\images\test';list =..
site package 확인 import sitesite.getsitepackages()