일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 |
- Analyzer
- dbeaver
- Cache
- java
- Selenium
- API
- TSLA
- 테슬라
- redis
- Aggregation
- aqqle
- 양자컴퓨터
- Elasticsearch
- vavr
- NORI
- KNN
- Query
- request cache
- Elastic
- JPA
- elasticsearch cache
- api cache
- ann
- file download
- mysql
- Docker
- java crawler
- aggs
- IONQ
- 아이온큐
- Today
- Total
목록분류 전체보기 (203)
아빠는 개발자
시간이 얼마 남지 않았다..3.6.9 게임 final version 우선 369게임 구현 package com.example.coding.livefive;public class TSNGameMain { public static void main(String[] args) { int n = 100; for (int i = 1; i 0) { return "clap"; } else { return number; } }} 사용자와 오답률을 추가하면package com.example.coding.livefive;import java.util.concurrent.ThreadLocalRandom;class Use..

다시 만들어 보자 369게임의 조건은 이거 였나보다/** * 1) 게임횟수만큼 순회 (100회) * 2) 초기 시작 숫자 : 1 * 3) 현재 숫자 do369메서드 인자로 사용 * 4) do369 - 숫자를 문자열로 변경 * 5) do369 - 문자열에서 3, 6, 9 라는 숫자를 갖는지 체크 * 6) ㄴ 있으면 clap 반환, 없으면 숫자 문자형태로 반환 * 7) 현재 숫자를 말할 사용자 선택 * 8) (현재 숫자-1 % 4) => players 인덱스 * 9) do369의 결과와 인덱스에 해당하는 players를 sout로 출력 */ 대충 작성해 보면public class TSNGameTestTwoMain { public static void main(String[] args) { ..
조만간 라이브코테를 봐야한다..한번도 안해본거라.. 코테 극혐.. 어떤 고마우신 분의 후기를 보니 3,6,9 게임에 여러가지 부가 기능을 추가 하는 것 같은데.. 일단 글에 나와 있는 조건을 구현해 보았다. 1단계 : 주어진 요구사항에 맞게 369 게임 구현2단계 : 오답률에 따른 게임 종료 및 사용자 등 몇 가지 심화 기능과 클래스 추가3단계 : 지역별 다른 규칙의 369 게임을 위해 추상화 및 다형성 적용4단계 : 다양한 지역 동시 게임 진행을 위한 동시성 적용출처: https://kang-james.tistory.com/entry/회고-라이브-코딩-면접-후기 [내 꿈을 JAVA:티스토리] 이조건들을 순서대로 알려주는건가.. 일단 위의 조건대로 구현을 해봤는데.. 이게 맞나.. 뭔가.. 찝찝한데..
아래 3개의 모델로 텍스트 유사도를 비교할 예정 jhgan = jhgan/ko-sbert-stssnunlp = snunlp/KR-SBERT-V40K-klueNLI-augSTSupskyy = upskyy/bge-m3-korean 3개 모델의 차이를 비교해 보면 아래와 같다. 모델Transformer 모델최대 시퀀스 길이 임베딩 차원파인튜닝 데이터STS DevPearsonCosine문서 분류정확도다국어지원jhgan/ko-sbert-stsBert128768KorSTS (한국어 STS)0.8155N/A한국어 전용snunlp/KR-SBERT-V40K-klueNLI-augSTSBert12876840K 말뭉치 + KLUE NLI + 증강 STSN/A (벤치마크 참조)0.8628 (Hugging Face)한국어 전용..
aqqle 에서 뭘 써야 할지.. from sentence_transformers import SentenceTransformer, util# 1) 모델 로드model = SentenceTransformer('jhgan/ko-sbert-sts')# 2) 비교할 문장 리스트sentences = [ "오늘 날씨가 정말 좋네요.", "날씨가 맑아서 기분이 좋습니다."]# 3) 임베딩 생성 (Tensor 반환)embeddings = model.encode(sentences, convert_to_tensor=True)# 4) 코사인 유사도 계산cos_sim = util.cos_sim(embeddings[0], embeddings[1])print(f"Similarity score: {cos_sim.it..
upskyy/bge-m3-korean 이게 가장 좋다고 하니 테스트 해보잣.아까와 동일한 단어 .. 아까라고 한다면 snunlp import torchfrom sentence_transformers import SentenceTransformer, models, utildef load_sentence_model(model_name="upskyy/bge-m3-korean"): # GPU 사용 가능 시 device = "cuda" if torch.cuda.is_available() else "cpu" print(f"Using device: {device}") # 1) Transformer 모듈 생성: tokenizer_args로 use_fast=False 강제 word_embedd..
nlp 환경에 접속conda activate nlp 라이브러리 설치 # 필수 라이브러리 설치pip install torch transformers sentence-transformers 사용 가능한 모델 ID: snunlp/KR-SBERT-V40K-klueNLI-augSTS 이 모델은 “KLUE-NLI” 데이터에 기반해 파인튜닝된 SBERT로, 문장 유사도나 클러스터링 등에 바로 활용 from sentence_transformers import SentenceTransformer, util# 올바른 모델 IDmodel = SentenceTransformer("snunlp/KR-SBERT-V40K-klueNLI-augSTS")sentences = ["문장 A", "문장 B"]# 임베딩 생성 및 유사도 계..
호환성을 고려한 버전이 3.12 라고 하니가상환경을 만들어 보자 .conda create -n nlp python=3.12 -yconda activate nlp# To activate this environment, use## $ conda activate nlp## To deactivate an active environment, use## $ conda deactivate 패키지 설치# PyTorch (또는 TensorFlow) pip install torch # CPU 전용; GPU 쓰면 cuda 버전 명시 # Transformers 핵심 라이브러리 pip install transformers # 전처리·토크나이저 지원 pip install tokeniz..
Hugging Face는 최신 자연어 처리(NLP) 기술을 손쉽게 사용할 수 있도록 해주는 AI 플랫폼이자 오픈소스 라이브러리를 제공하는 회사입니다. 특히 Transformers 라이브러리를 통해 BERT, GPT, T5 등 사전학습된 대규모 언어 모델들을 매우 간단하게 활용할 수 있도록 해주며, NLP 뿐 아니라 음성, 이미지, 멀티모달 작업도 지원합니다. 1. Hugging Face란?회사 소개:2016년 설립, 처음에는 챗봇으로 시작 → 이후 NLP 커뮤니티 중심 플랫폼으로 진화대표 라이브러리:transformers: NLP 모델 (BERT, GPT 등)datasets: 대규모 데이터셋 로딩/처리tokenizers: 빠른 토크나이저 구현 (Rust 기반)evaluate: 모델 평가 지표 지원 (ac..
근사 최인접 이웃 설명근사 최근접 이웃(ANN)은 데이터 세트에서 주어진 쿼리 요소와 매우 가까운 데이터 요소를 찾는 알고리즘이지만 반드시 절대적으로 가장 가까운 것을 찾는 것은 아닙니다. NN 알고리즘은 모든 데이터를 철저히 검색하여 완벽한 일치 항목을 찾는 반면, ANN 알고리즘은 충분히 가까운 일치 항목을 찾습니다.이것이 더 나쁜 해결 방법처럼 들릴 수 있지만 실제로는 빠른 유사성 검색의 핵심입니다. ANN은 지능형 지름길과 데이터 구조를 사용하여 검색 공간을 효율적으로 탐색합니다. 따라서 엄청난 시간과 리소스를 소비하는 대신, 대부분의 실제 시나리오에서 유용할 만큼 가까운 데이터 요소를 훨씬 적은 노력으로 식별할 수 있습니다.기본적으로 이는 절충안입니다. 가장 잘 일치하는 하나의 데이터 요소를 꼭..