일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- Absolute
- AGI
- ai
- AI agents
- AI engineer
- AI researcher
- ajax
- algorithm
- Algorithms
- aliases
- Array 객체
- ASI
- bayes' theorem
- Bit
- Blur
- BOM
- bootstrap
- canva
- challenges
- ChatGPT
- Today
- In Total
목록분류 전체보기 (558)
A Joyful AI Research Journey🌳😊

241101 Fri 3rd class오늘 배운 것 중 기억할 것을 정리했다.면접 때 말로 설명한다. 가능성을 보고 뽑아줄 수는 있다. 프로젝트만X이론도 중요하다.원리를 알면 쉽게 접근한다. 공부할 때 고민할 시간 가지기, 어떻게 풀지 고민, 검색하기, 생각을 한다. 알고리즘 짜보기, 늘어남 ChatGPT 의존 사태가 일어날 수 있다. 못하는 거 잡아내고, 컨트롤하려면 지식 있어야 한다. 많이 공부 -> 해결책을 안다. (ex. nltk)인기 있는 거 쫓아서 공부하면 중요한 걸 공부X2,3년차 엔지니어 -> 기본 모르는 경우 있다. -> 오래가지 못한다.LLM 전이학습 마지막 프로젝트는 팀 별로 한다. 실습하기 서비스를 하려면 기본적인 지식이 있어야 한다. 새로운 프로젝트 같은 데 원리가 비슷하다. 기본을..

241101 Fri 3rd class오늘 배운 것 중 기억할 것을 정리했다.*복습하기https://wikidocs.net/11 02장 파이썬 프로그래밍의 기초, 자료형‘어떤 프로그래밍 언어이든 그 언어의 자료형을 알고 이해할 수 있다면 이미 그 언어의 절반을 터득한 것이나 다름없다’라는 말이 있다. 자료형이란 프로그래밍을 할 때 쓰이는 숫자,…wikidocs.net몰랐던 것판다스(Pandas)에서 주요 데이터 구조는 **데이터프레임(DataFrame)**과 **시리즈(Series)**입니다.데이터프레임(DataFrame): 2차원 테이블 형태의 데이터 구조로, 행과 열로 구성됩니다. 다양한 데이터 타입을 가질 수 있고, 엑셀처럼 데이터를 필터링, 그룹화, 정렬할 수 있습니다.시리즈(Series): 1차원..

241031 Thu 2nd class오늘 배운 것 중 기억할 것을 정리했다.AI 주도가 하는 게 아닌, 인간이 주도해야한다. 계속 공부한다. 공부를 한 사람이 AI 쓰면 더 잘 한다. 여러 개 동시에 쓰기 내가 가진 것에서 AI를 활용하는 능력을 키워야 한다. -> 도태X, 내가 주도해야한다.생각하고 질문 던지기 의도적으로 생각 많이 해보기 빠르다고 좋은 거X 실리콘 밸리 청소년, 스마트폰X, 창의력O페이스북: 정보 많이 가져감 애플에서 정보 막음, 페이스북 주가 떨어짐, 페이스북 앱이 깔리면 정보가 많이 흘러감, 대부분 회사들 그럼 보안이 취약한 시대다. AI가 안 쓰이는 분야가 없다.공부한 사람 YOLOv8이 있는 걸 안다. 공부를 계속해야 한다. 이 코드를 좀 더 간결하고 가독성이 높도록 작성을 부..
Data science is not exactly a subcategory of artificial intelligence (AI), but the two are closely related and often overlap. Data science involves techniques for collecting, processing, analyzing, and interpreting large sets of data, often using statistical methods and programming. It serves as a foundation for AI by providing the data needed for training machine learning models, which are a co..
https://pandas.pydata.org/docs/user_guide/10min.html 10 minutes to pandas — pandas 2.2.3 documentation10 minutes to pandas This is a short introduction to pandas, geared mainly for new users. You can see more complex recipes in the Cookbook. Customarily, we import as follows: In [1]: import numpy as np In [2]: import pandas as pd Basic data structures in ppandas.pydata.org https://www.w3schools...

241031 Thu 2nd class1시간 동안 만드는 시간을 주었다. 생각해본 주제 - OpenCV 이용해서 객체 detection- 로또 추첨기- 영어 이름 추천- 이름을 캘리그라피로 만들어줌 마지막 주제가 실용적이어서 골랐다.ChatGPT를 이용했는데 오류가 났고 Colab의 Gemini가 오래된 버전의 코드라고 알려줘서 해결했다.수업 시간의 강사님의 말대로 옛날 버전의 코드를 ChatGPT가 알려주는 상황이랑 똑같았다.두 가지 버전을 만든 이유는 첫번째 버전은 긴 문장이 짤려서 그런데 마지막 버전은 긴 문장도 가능하다. 영어 캘리그라피 이미지 생성기중앙 정렬, 이미지에 마진 큼import requestsfrom PIL import Image, ImageDraw, ImageFontfrom IPyth..
아나콘다: 호환 되는 프로그램을 깔아준다. 하나하나 설치X 프로그램 설치anaconda 설치https://ldjwj.github.io/kagglebook/pdf_html/env01_anaconda_install_220208.htmlAnaconda : https://www.anaconda.com/download/Visual Studio Code 설치https://ldjwj.github.io/kagglebook/pdf_html/env03_VisualStudioCode_install.htmlVisual Studio : https://code.visualstudio.com/Download

Teacher: 복습하시는 분들을 위해 제가 공유한 notion에 실습하고 찾아볼 내용을 다음과 같이 추가해 두었습니다. 참고해 주세요.https://platform.openai.com/tokenizer토큰 GPT 모델에서의 토큰(token)은 매우 간단한 개념이다. 일상 언어에서 우리가 사용하는 단어나 문장 부호와 같은 것을 생각하면 된다. GPT 모델에서는 이러한 단어나 문장 부호를 더 작은 단위로 쪼갠 것을 토큰이라고 부른다. 예를 들어, 영어에서 "cat"이라는 단어는 하나의 토큰으로 처리될 수 있지만, 더 긴 단어나 복잡한 문자는 여러 개의 토큰으로 나뉠 수 있다.https://wikidocs.net/223125입력 혹은 출력하는데 사용되는 텍스트 데이터 내 ‘의미를 가진 최소 말의 단위(형태소..

241030 Wed 1st class 오늘 배운 것 중 기억할 것을 정리했다. 6개월의 압축판이다. LLM은 메인이다. 논문 수준의 실력은 회사에 개발자, AI 엔지니어로 취업해야 가능 1개월 동안 성장하는 모습으로 포트폴리오 만든다-> 취업에 도움 된다. 프로젝트를 보고 열심히했다고 평가한다 긍정적인 언어가 중요하다 (안 좋은 말은 금방 번진다 -> 의욕 다운) 부딪혀서 넘어가야 한다 할 수 있는 것에 집중한다 모르는 것은 개인톡으로 질문, 상담 필요하면 디코 디엠 보냄 비디오 켜기 -> 배움의 속도가 다르다 과제 충실히 하기복습은 필수다.40-45분 수업, 5분은 QA, 개인 정리 시간 오전 3시간 시간, 1시간 점심, 오후 4시간 수업멘토 -> 프로젝트 업그레이드 늦은 건 없다. 4년 동안 열심히 ..
Google Scholar: 다양한 학술 자료를 검색할 수 있는 대표적인 사이트입니다. 특정 연구 분야나 논문을 찾기에 유용하며, 다양한 필터링 기능을 제공합니다.ArXiv: AI, 머신러닝, 컴퓨터 비전, 자연어 처리와 같은 컴퓨터 과학 연구에 대한 최신 논문을 공개하는 사이트입니다. 특히, RAG와 같은 최신 기술에 대한 논문을 쉽게 찾을 수 있습니다.Semantic Scholar: AI 기반 학술 논문 검색 엔진으로, 논문 추천, 인용 수 분석, 관련 연구 자료 등을 효과적으로 제공합니다.PubMed: 의학과 생물학 연구에 중점을 두고 있지만, AI와 관련된 일부 논문도 찾을 수 있습니다.미션 - 나에 맞는 GPTs 3-5개 찾기. 45분 정도에 올리기1. Thesis Buddy: 논문 작성 ste..

https://github.com/yjyuwisely/MovieSense_NLP GitHub - yjyuwisely/MovieSense_NLP: MovieSense, an NLP project that provides sentiment analysis, translation, summarization, andMovieSense, an NLP project that provides sentiment analysis, translation, summarization, and text generation services for movie reviews. - yjyuwisely/MovieSense_NLPgithub.com Aug 22 - Sep 2Page ScreenshotsBelow are some scree..
ChatGPT, OpenAICO₂ flux inversion is a method used in atmospheric science to estimate the sources and sinks of carbon dioxide (CO₂) based on observed atmospheric CO₂ concentrations. This technique combines observations of CO₂ concentrations from various platforms (such as satellites, ground stations, and aircraft) with atmospheric transport models to "invert" the observed data and deduce where C..
Using the Retrieval-Augmented Generation (RAG) method, I experimented with GPT-3.5-turbo to generate both positive and negative movie reviews.RAG enhances the model's ability to produce relevant text by retrieving the most pertinent documents before generating the output.For example, the negative review generated highlighted issues like 'a movie version of a paint-by-numbers picture' and 'a loud..
ChatGPT, OpenAIAll the optimization techniques you listed are relevant to your project, MovieSense, and can help improve the performance and efficiency of the models and methods you are using. Here's how each technique relates to your project:Relevance of Optimization Techniques to Your ProjectModel Quantization to Reduce Model Size and Speed Up InferenceRelevance: Quantization reduces the memor..
ChatGPT, OpenAIFor text generation, the evaluation metric often depends on the specific task and desired outcomes. However, some common evaluation metrics used in NLP for text generation tasks include:Perplexity:Definition: Perplexity measures how well a probability model predicts a sample. In the context of language models, lower perplexity indicates a better predictive model.Usage: It is widel..