본문 바로가기

Python123

[Python] any() / all() 함수 활용하기 안녕하세요오늘은 파이썬 내장함수 any() / all() 함수에 대해 알아보도록 하겠습니다. 파이썬에는 조건식을 훨씬 깔끔하게 쓸 수 있는 내장 함수 any() 와 all() 이 있습니다.이 두 함수는 리스트나 튜플 같은 반복 가능한(iterable) 자료형을 받아서, 내부 요소들의 참/거짓 여부를 간단하게 검사해줍니다. 1. any()의미: 하나라도 참(True)이면 True즉, "조건을 만족하는 게 하나라도 있냐?" 라고 묻는 느낌입니다.nums = [1, 3, 5, 7]# 하나라도 짝수가 있나?has_even = any(n % 2 == 0 for n in nums)print("짝수가 있나요?", has_even) # Falsenums2 = [1, 3, 4, 7]has_even2 = any(n % .. 2025. 9. 21.
[Python] EBU R128 기준으로 오디오 라우드니스 정규화하기 (배치 처리) TTS/ASR 데이터는 파일마다 소리가 들쑥날쑥하면 성능이 흔들릴 수 있습니다.EBU R128 (LUFS) 표준으로 라우드니스를 맞춰주면 학습/추론 안정성이 올라갑니다.아래 스크립트는 폴더 단위로 .wav 파일을 읽어 타깃 LUFS(-23, -18, -16 등)에 맞춰 정규화해서 저장합니다 1. 먼저 필요한 라이브러리를 설치해줍니다 pip install soundfile numpy pyloudnorm 2. 라우드니스 정규화 배치 스크립트 import osimport argparseimport numpy as npimport soundfile as sfimport pyloudnorm as pylndef loudness_normalize(y, sr, target_lufs=-18.0, tp_limit_d.. 2025. 9. 18.
[Python] 파이썬으로 AI 감정 분석 해보기 안녕하세요오늘은 허깅페이스(Hugging Face)의 Transformers 라이브러리를 이용해서 텍스트 감정 분석을 간단히 해보겠습니다. 요즘 AI 라이브러리들은 복잡한 모델을 직접 다루지 않아도, 파이프라인(pipeline) 이라는 인터페이스를 통해 바로 사용할 수 있도록 잘 정리되어 있습니다. 1. 환경 설정먼저 필요한 라이브러리를 설치해 줍니다.pip install transformers torch 2. 감정 분석 예제 코드from transformers import pipeline# 감정 분석 파이프라인 불러오기sentiment_analyzer = pipeline("sentiment-analysis")# 테스트할 문장들texts = [ "오늘 하루가 너무 즐거웠어!", "나는 정.. 2025. 9. 17.
[Python] Hugging Face Transformers로 문서 요약하기 안녕하세요오늘은 LLM(Large Language Model)을 활용해서 긴 텍스트를 짧게 요약(summarization) 하는 방법을 소개해드리겠습니다.요즘 AI 모델들은 단순히 텍스트를 생성하는 수준을 넘어, 주어진 문서에서 핵심만 뽑아내는 요약 작업도 잘해내는 편니다. 1. 환경 준비pip install transformers torch 2. 파이썬 코드 작성 Hugging Face의 pipeline 기능을 이용하면 요약 모델을 아주 쉽게 불러올 수 있습니다.이번 예제에서는 facebook/bart-large-cnn 모델을 사용했습니다.# pip install transformers torchfrom transformers import pipeline# 1. Summarization 파이프라인 불.. 2025. 9. 16.
[Python] 내장함수 zip 사용법 알아보기 안녕하세요오늘은 python 내장함수 zip의 사용법에 대해서 예제를 통해 알아보도록 하겠습니다. 전체 코드입니다 main.py # 기본 예제: 두 리스트 묶기names = ["철수", "영희", "민수"]scores = [90, 85, 77]print("=== 기본 예제 ===")for name, score in zip(names, scores): print(f"{name}: {score}")# 출력:# 철수: 90# 영희: 85# 민수: 77# 여러 개 리스트 묶기subjects = ["국어", "수학", "영어"]print("\n=== 세 개 리스트 묶기 ===")for name, score, subject in zip(names, scores, subjects): print(f"{nam.. 2025. 9. 14.
[Python] Hugging Face의 transformers 라이브러리를 활용한 감정 분석(Sentiment Analysis) 안녕하세요 오늘은 허깅페이스의 Transformers 라이브러리를 통해 ai 모델을 불러와 감정 분석을 해보도록 하겠습니다. 허깅페이스의 Transformers 라이브러리는 BERT, GPT 같은 대규모 AI 모델을 아주 간단히 불러와서 바로 사용할 수 있게 해주는 도구입니다. 덕분에 복잡한 모델 구조나 학습 과정을 몰라도, 단 몇 줄의 코드로 번역, 요약, 감정 분석 같은 기능을 직접 실행해볼 수 있습니다.Hugging Face Transformers란?정의Hugging Face에서 만든 자연어 처리(NLP)와 AI 모델용 파이썬 라이브러리.이름 그대로 Transformer 구조(GPT, BERT, T5, RoBERTa 같은 모델들)를 쉽게 불러와서 쓸 수 있게 도와준다.특징사전 학습된(pre-trai.. 2025. 9. 11.
[Python] 문서 임베딩으로 간단한 의미 검색기 만들기 (sentence-transformers) 요즘 검색 기술은 단순히 단어를 일치시키는 수준을 넘어서,사용자가 무엇을 의미하는지까지 이해하려는 방향으로 발전하고 있습니다. 예를 들어, "환불"이라는 단어를 직접 검색하는 키워드 검색과, "결제 취소"처럼 표현은 다르지만 뜻이 비슷한 문장까지 찾아주는 의미 검색은 완전히 다른 접근 방식입니다. 이번 글에서는 키워드 검색과 의미 검색의 차이를 간단히 살펴보고, 파이썬으로 직접 의미 검색을 구현하는 예제도 함께 소개하겠습니다. 키워드 검색 (Keyword Search)정의: 사용자가 입력한 단어(키워드)와 동일한 텍스트를 문서 안에서 그대로 찾아내는 방식원리: 문자열 매칭 (예: LIKE, 정규식, 검색엔진의 인덱스 기반 매칭)장점: 빠르고 직관적임단점: 표현이 조금만 달라져도 못 찾음예: "환불"을 .. 2025. 9. 10.
[Python] Hugging Face의 pipeline 함수를 활용한 AI 사용 예제 안녕하세요오늘은 파이썬으로 AI 모델을 직접 실행해보는 방법을 소개하려고 합니다.예전에는 딥러닝 모델을 돌리려면 복잡한 환경 설정, 모델 구조 이해, 수많은 코드 작성이 필요했는데요이제는 Hugging Face에서 제공하는 파이프라기능 덕분에 단 몇 줄 코드로도 다양한 AI 기능을 체험할 수 있습니다.이번 글에서는 텍스트 생성, 감정 분석, 요약, 번역, 이미지 분류까지실제 AI 모델을 불러와 바로 실행할 수 있는 예제 코드를 다뤄보겠습니다. 1. 먼저 예제 실행을 위해 필요한 라이브러리를 설치해줍니다 (터미널) pip install transformers torch pillow transformers → Hugging Face에서 제공하는 라이브러리.최신 AI 모델(GPT, BERT, CLIP 등)을.. 2025. 9. 8.
[Python] Logging 모듈 사용해서 로그 남기기 안녕하세요오늘은 파이썬의 Logging 모듈을 사용해서 로그 남기는 방법에 대해서 알아보도록 하겠습니다.logging 모듈은 프로그램 실행 중 발생하는 메시지를 체계적으로 기록하는 표준 파이썬 라이브러리입니다.print()로 디버깅을 많이 하시겠지만, 프로젝트가 커지면 logging이 훨씬 유용해집니다. 이번 예제에서는, main.pymodule_a.pymodule_b.py 총 3개의 파일이 유기적으로 작동하는것을 기준으로system.log 파일에 기록을 남겨보도록 하겠습니다. 전체 코드입니다. main.pyimport loggingimport module_aimport module_blogging.basicConfig( filename="system.log", level=logging.DE.. 2025. 9. 7.