Welcome to Hexo! This is your very first post. Check documentation for more info. If you get any problems when using Hexo, you can find the answer in troubleshooting or you can ask me on GitHub.
A. 아예 실행조차 안되신다면 터미널 콘솔을, 실행은 된 후에 발생한 동작오류면 브라우저의 개발자도구 > 콘솔을 포함해서 문의주세요. 일렉트론 프로젝트의 경우 Control+Shift+i (mac 의 경우 Command+Alt+i) 를 입력하시면 개발자도구가 오픈됩니다.
모델이 학습할 숫자를 테이블로 업로드하거나 직접 작성해 데이터로 입력하고, 입력한 데이터를 가장 가까운 이웃(K개)을 기준으로 각각의 클래스로 분류하는 모델을 학습합니다.
+
+
카메라로 입력되는 이미지(영상)을 통해 사람의 얼굴을 인식하는 블록입니다. 인공지능이 얼굴 각 부위의 위치나, 표정 등을 통해 유추한 나이, 성별, 감정 등을 인식하는 것을 간단히 경험해 볼 수 있어요!
-
분류: 숫자 모델을 학습하려먼 먼저 데이터로 삼을 테이블을 추가해야 합니다. 학습하기 전에 데이터 분석 카테고리에서 [테이블 불러오기]를 통해, 기본 테이블, 파일 업로드, 새로 만들기의 방법으로 테이블을 추가 해주세요.
+
이 블록은 카메라 연결이 꼭 필요한 블록입니다. 데스크탑의 경우 별도 웹캠을 연결해 주세요. ※ 카메라를 통해 입력되는 영상은 절대로 서버에 저장되거나 외부로 공유되지 않습니다.
+
이 블록은 인터넷 익스플로러 브라우저와 iOS 운영 체제에서는 동작하지 않습니다. 인터넷 브라우저의 경우, 안정적인 동작을 위해 구글 크롬 또는 네이버 웨일 브라우저의 사용을 권장합니다.
+
카메라를 연결했는데도 블록이 동작하지 않거나, 영상이 제대로 입력되지 않는 경우 인터넷 브라우저의 설정을 변경해 카메라 사용을 허용해주세요. (크롬 브라우저의 경우, 주소 표시줄 오른쪽의 카메라 아이콘을 클릭하거나 ‘설정 > 개인정보 및 보안 > 사이트 설정 > 카메라’ 에서 엔트리 사이트의 카메라 사용을 허용해 주세요.)
-
분류: 숫자 모델을 선택하면 아래와 같이 모델 학습하기 창이 나타납니다.
-
-
먼저 모델의 이름부터 지어볼까요? 이름 상자를 클릭해서 모델의 이름을 정합니다.
-
① 데이터 입력하기 = 테이블 선택하기
분류: 숫자 모델 학습의 첫 단계는 데이터 입력 박스에서 모델의 데이터로 삼을 테이블을 선택하는 것이에요. 모델을 학습하기 전에, ‘데이터 분석 블록’ 카테고리에서 테이블을 추가하는 것을 잊지 마세요!
-
-
목록 상자를 눌러 작품에 추가한 테이블 중에서 모델 학습에서 사용할 테이블을 선택하면, 바로 아래에 테이블의 속성이 표시됩니다. 여기서 표시되는 속성은 (1행을 제외한) 모든 행이 숫자로 이루어진 속성입니다. (숫자 데이터를 학습하는 모델이니 당연하겠죠?)
-
-
-
핵심 속성: 핵심 속성은 속성 중에서 ‘원인’에 해당하는 속성을 말합니다. 조금 어렵게 말하면 ‘독립 변수’ 또는 ‘설명 변수’를 의미합니다. 모델이 학습할 때 어떤 속성을 원인으로 삼을 것인지를 선택하는 부분이에요. 엔트리에서는 최대 3개까지 핵심 속성을 설정할 수 있습니다.
+
얼굴 인식 블록이 인식할 수 있는 부위는 아래와 같습니다.
-
예를 들어, 소고기의 ‘지방 함량’, ‘색’, ‘숙성도’를 핵심 속성으로 삼는다고 생각해 보세요.
-
-
+
왼쪽 눈, 오른쪽 눈, 코, 왼쪽 입꼬리, 오른쪽 입꼬리, 윗 입술, 아랫 입술
+
1. 비디오 화면 [보이기]
+
카메라가 촬영하는 화면(앞으로 ‘비디오 화면’이라고 부를게요)을 실행 화면에서 보이거나 숨깁니다.
+
목록 상자()를 클릭하면 보일지 숨길지 고를 수 있어요.
+
2. [1번] 카메라로 바꾸기
+
비디오 화면을 촬영할 카메라를 선택한 카메라로 바꿉니다.
+
목록 상자()를 클릭하면 기기에 연결된 카메라 목록이 표시되고, 이 중에서 하나를 선택할 수 있어요.
+
3. <카메라가 연결되었는가?>
+
기기에 카메라가 연결되어 있다면 참으로, 아니라면 거짓으로 판단하는 블록입니다.
+
4. 비디오 화면 [좌우] 뒤집기
+
비디오 화면을 실행 화면에서 좌우(가로) 또는 상하(세로)로 뒤집습니다.
+
기본 화면은 거울을 보는 것처럼 좌우로 뒤집어져 있어요.
+
목록 상자()를 클릭하면 뒤집을 방향을 선택할 수 있어요.
+
5. 비디오 투명도 효과를 (0) 으로 정하기
+
비디오 화면의 투명도 효과를 입력한 숫자로 정합니다. 0%~100% 범위에서 조절할 수 있어요.
+
이 블록을 사용하지 않았을 때 기본 투명도 효과는 50%입니다.
+
6. ([자신] 에서 감지한 [움직임] 값)
+
비디오 화면에서 오브젝트나 실행 화면이 감지한 움직임 정도를 가져오는 값 블록입니다.
+
목록 상자()를 클릭하면 감지할 대상과 감지할 값을 선택할 수 있어요.
-
클래스 속성: 클래스 속성은 분류: 숫자 모델의 ‘결과’에 해당하는 클래스를 의미하는 속성을 말합니다. 다르게 말하면 ‘종속 변수’에 해당해요. 분류 모델이 학습의 결과로, 입력한 데이터를 어떤 클래스로 분류할지 선택하는 부분이에요. 앞에서 전부 숫자로 이루어진 값을 가져야 하는 속성과는 달리, 클래스는 이름(또는 범주)을 의미하기 때문에 숫자 뿐만 아니라 문자여도 상관이 없답니다. 그래서 길쭉한 원 모양의 목록 상자를 누르면, 숫자로만 이루어진 속성 뿐만 아니라 모든 속성이 표시되고, 그 중에 하나를 클래스 속성으로 설정할 수 있어요.
-
-
예를 들어, 소고기의 ‘등급’(1++등급, 1+등급, 1등급, 2등급, 3등급)을 클래스 속성으로 삼는다고 생각해 보세요. 핵심 속성이 원인이고 클래스 속성이 결과니까, 학습한 모델이 소고기의 ‘지방 함량’, ‘색’, ‘숙성도’를 가지고 ‘등급’을 분류해낼 수 있겠죠?
+
감지할 대상 (첫 번째 목록 상자)
+
자신 : 해당 오브젝트에서 움직임을 감지합니다.
+
실행 화면 : 촬영하는 전체 화면에서 움직임을 감지합니다.
-
-
-
이웃 개수: 엔트리의 분류 모델은 ‘K-최근접 이웃’이라는 이름의 알고리즘을 사용합니다. 쉽게 말하면, 분류하려는 데이터와 가장 가까운 K개의 다른 데이터들의 클래스를 가지고 그 중에서 가장 많은 클래스로 분류하는 방법을 말해요. (이 때 가장 가깝다는 것은 유클리드 거리를 기준으로 합니다.) 이웃 개수는 데이터의 개수, 분류하려는 클래스 개수에 따라 적절한 개수가 달라집니다. 다양하게 입력해서 학습해보고 적절한 K개를 찾아봅시다.
-
-
② 학습하기
-
이렇게 핵심 속성, 클래스 속성, 이웃 개수를 설정하고 나면, 학습 박스의 [모델 학습하기] 버튼을 클릭할 수 있게 됩니다.
-
-
분류: 숫자 모델은 학습 박스에서 별도의 학습 조건을 설정할 수 없어요.
-
-
③ 결과 확인하기
모델 학습이 모두 완료되었다면, 결과 박스에서 학습 결과를 확인할 수 있습니다.
-
-
핵심 속성으로 설정한 속성에 새로운 데이터(숫자)를 직접 입력하고, [입력하기] 버튼을 클릭하면 학습된 모델이 새로운 데이터를 클래스로 분류한답니다!
-
1. 모델 다시 학습하기
-
모델을 다시 학습합니다.
-
모델 설정을 변경하거나 입력 데이터가 되는 테이블의 내용을 수정했다면, 변경된 내용을 바탕으로 모델을 다시 학습합니다.
-
2. <모델이 학습되었는가?>
-
모델의 학습 상태를 가져오는 판단 블록입니다.
-
모델이 학습되었다면 ‘참’을, 학습 중이거나 학습되지 않았다면 ‘거짓’으로 판단합니다.
-
3. 모델 [보이기]
-
모델의 학습 상태를 표시하는 창을 실행 화면에 보이게 하거나 숨깁니다.
-
목록 상자()를 클릭해서 보이기/숨기기를 선택할 수 있어요.
-
4. 모델 차트 창 [열기]
-
모델을 학습할 때 입력한 데이터와 모델이 분류한 클래스를 2차원 좌표평면에 나타낸 차트 창을 열거나 닫습니다.
-
핵심 속성이 3개 이상인 경우 모델의 차트를 2차원 좌표평면 위에 그릴 수 없기 때문에, 이 블록은 표시되지 않습니다.
-
목록 상자()를 클릭해서 열기/닫기를 선택할 수 있어요.
-
5. 이웃을 (10) 개로 바꾸기
-
이웃 개수를 입력한 값으로 바꾸어 설정합니다.
-
변경한 이웃 개수는 ‘모델 다시 학습하기’ 블록으로 모델을 다시 학습할 때부터 적용됩니다.
-
6. 핵심 속성1 (10) 핵심 속성2 (10) 의 분류 결과
-
핵심 속성의 값을 직접 입력해 모델이 분류한 클래스를 가져오는 값 블록입니다.
-
값은 모델의 클래스 이름(텍스트)으로 표현됩니다.
-
‘핵심 속성1’, ‘핵심 속성2’ 등은 모델 학습 시 선택한 속성 이름으로 표시되며, 설정한 핵심 속성의 개수에 따라 값 블록을 결합할 수 있는 개수도 함께 늘어납니다.
-
7. 핵심 속성1 (10) 핵심 속성2 (10)[클래스1] 에 대한 [신뢰도]
-
핵심 속성의 값을 직접 입력해 선택한 클래스에 대한 신뢰도 또는 이웃 개수를 가져오는 값 블록입니다.
-
이 때 가져오는 값는 값은 숫자로 표현됩니다.
-
‘핵심 속성1’, ‘핵심 속성2’ 등은 모델 학습 시 선택한 속성 이름으로 표시되며, 설정한 핵심 속성의 개수에 따라 값 블록을 결합할 수 있는 개수도 함께 늘어납니다.
-
목록 상자()를 클릭해서 클래스와 신뢰도 또는 이웃 개수를 선택할 수 있어요.
-
-
클래스 (첫 번째 목록 상자)
-
-
클래스 속성의 모든 항목
+
감지할 값 (두 번째 목록 상자)
+
움직임 : 움직임이 작고 느릴수록 0 에 가깝고, 크고 많을수록 큰 수를 가져옵니다.
+
방향 : 오른쪽 또는 위쪽으로 움직일수록 양수로 커지고, 왼쪽 또는 아래쪽으로 움직일수록 음수로 커지는 수를 가져옵니다.
+
7. 얼굴을 인식했을 때
+
얼굴을 인식했을 때 아래의 블록이 동작합니다.
+
한 번 인식을 시작하고 연속적으로 인식이 유지되면 다시 동작하지 않지만, 얼굴이 새롭게 인식되는 순간 다시 블록이 동작합니다.
+
얼굴 인식을 시작하지 않았다면 블록이 동작하지 않아요.
+
8. 얼굴 인식 [시작하기]
+
얼굴 인식을 시작하거나 중지합니다.
+
얼굴을 인식하려면 꼭 이 블록을 통해 인식을 시작해야 해요.
+
목록 상자()를 클릭하면 인식을 시작할지 중지할지 선택할 수 있어요.
+
9. 인식한 얼굴 [보이기]
+
인식한 얼굴을 실행 화면에서 보이거나 숨깁니다.
+
‘보이기’를 선택하면 인식한 얼굴의 각 부위를 외곽선의 형태로 표시해요.
+
목록 상자 ()를 클릭하면 인식한 형태를 보일지 숨길지 고를 수 있어요.
+
10. <얼굴을 인식했는가?>
+
얼굴을 인식했다면 참으로, 아니라면 거짓으로 판단하는 블록입니다.
+
얼굴 인식을 시작하지 않았다면 항상 거짓으로 판단해요.
+
11. (인식한 얼굴의 수)
+
인식한 얼굴이 몇 개인지를 가져오는 값 블록입니다.
+
최대 4개의 얼굴을 인식할 수 있습니다.
+
12. [1] 번째 얼굴의 [왼쪽 눈] (으)로 이동하기
+
이 오브젝트가 얼굴의 선택한 부위로 이동합니다.
+
목록 상자()를 클릭하면 인식한 순서의 얼굴과 부위를 선택할 수 있어요.
+
13. (2) 초 동안 [1] 번째 얼굴의 [왼쪽 눈] (으)로 이동하기
+
입력한 시간()동안 이 오브젝트가 얼굴의 선택한 부위로 이동합니다.
+
목록 상자()를 클릭하면 인식한 순서의 얼굴과 부위를 선택할 수 있어요.
+
14. <[1] 번째 얼굴의 성별이 [여성] 인가?>
+
얼굴의 성별과 선택한 성별이 같다면 참으로, 아니라면 거짓으로 판단하는 블록입니다.
+
15. <[1] 번째 얼굴의 나이 [=](10) 인가?>
+
얼굴의 나이와 입력한 나이를 비교한 결과가 옳다면 참으로, 아니라면 거짓으로 판단하는 블록입니다.
+
16. <[1] 번째 얼굴의 감정이 [분노] 인가?>
+
얼굴의 감정과 선택한 감정이 같다면 참으로, 아니라면 거짓으로 판단하는 블록입니다.
-
신뢰도와 이웃 개수 (두 번째 목록 상자)
+
선택할 수 있는 감정
-
신뢰도, 이웃 개수
+
분노, 혐오, 두려움, 행복, 무표정, 슬픔, 놀람
-
8. <핵심 속성1 (10) 핵심 속성2 (10) 의 분류 결과가 [클래스1] 인가?>
-
핵심 속성의 값을 직접 입력해 분류 결과가 선택한 클래스인 경우 ‘참’을 가져오는 판단 블록입니다.
-
‘핵심 속성1’, ‘핵심 속성2’ 등은 모델 학습 시 선택한 속성 이름으로 표시되며, 설정한 핵심 속성의 개수에 따라 값 블록을 결합할 수 있는 개수도 함께 늘어납니다.
-
목록 상자()를 클릭해서 클래스를 선택할 수 있어요.
+
17. ([1] 번째 얼굴의 [왼쪽 눈]의 [x] 좌표)
+
얼굴 부위의 x 또는 y 좌표를 가져오는 값 블록입니다.
+
얼굴을 인식하지 않을 때는 0 을 가져와요.
+
목록 상자()를 클릭하면 인식한 순서의 얼굴과 부위를 선택할 수 있어요.
+
18. ([1] 번째 얼굴의 [성별])
+
얼굴의 특징을 가져오는 값 블록입니다.
+
얼굴의 특징을 가져오려면 꼭 얼굴 인식을 시작한 상태여야 해요. 얼굴을 인식하지 않을 때는 0 을 가져와요.
+
목록 상자()를 클릭하면 얼굴의 성별/나이/감정을 선택할 수 있어요.
diff --git a/user/block_ai_model_clustering.html b/user/block_ai_hand.html
similarity index 52%
rename from user/block_ai_model_clustering.html
rename to user/block_ai_hand.html
index ab2ecda1..965c274d 100644
--- a/user/block_ai_model_clustering.html
+++ b/user/block_ai_hand.html
@@ -2,21 +2,21 @@
- 인공지능 블록 > 군집 모델 - 숫자 — Entry Docs
+ AI 블록 > 손 인식 — Entry Docs
-
+
-
+
-
+
@@ -72,20 +72,20 @@
"@type": "Person",
"name": "Entrylabs"
},
- "headline": "인공지능 블록 > 군집 모델 - 숫자",
+ "headline": "AI 블록 > 손 인식",
"image": "https://docs.playentry.org/images/logo.png",
- "datePublished": "2021-01-18",
- "dateCreated": "2021-01-18",
- "dateModified": "2023-11-17",
- "url": "https://docs.playentry.org/user/block_ai_model_clustering.html",
+ "datePublished": "2023-11-27",
+ "dateCreated": "2023-11-27",
+ "dateModified": "2023-11-29",
+ "url": "https://docs.playentry.org/user/block_ai_hand.html",
"description": "Entry Docs - 엔트리 개발 가이드&위키",
- "wordCount": "785",
+ "wordCount": "804",
"publisher": "Entrylabs",
"mainEntityOfPage": {
"@type": "WebPage",
- "@id": "https://docs.playentry.org/user/block_ai_model_clustering.html"
+ "@id": "https://docs.playentry.org/user/block_ai_hand.html"
}
}
@@ -323,7 +323,7 @@
모델이 학습할 숫자를 테이블로 업로드하거나 직접 작성해 데이터로 입력하고, 입력한 데이터를 설정한 개수(K개)의 묶음으로 군집화하는 모델을 학습합니다.
-
이 때, 군집 모델의 특징은 비지도학습이라는 점인데요. 비지도학습은 어떻게 학습해야 하는지(결과)를 알려주지 않아도 모델을 학습할 수 있답니다.
+
+
카메라로 입력되는 이미지(영상)을 통해 사람의 손을 인식하는 블록입니다. 인공지능이 손 각 부위의 위치나, 제스처 등을 인식하는 것을 간단히 경험해 볼 수 있어요!
+
+
이 블록은 카메라 연결이 꼭 필요한 블록입니다. 데스크탑의 경우 별도 웹캠을 연결해 주세요. ※ 카메라를 통해 입력되는 영상은 절대로 서버에 저장되거나 외부로 공유되지 않습니다.
+
이 블록은 인터넷 익스플로러 브라우저와 iOS 운영 체제에서는 동작하지 않습니다. 인터넷 브라우저의 경우, 안정적인 동작을 위해 구글 크롬 또는 네이버 웨일 브라우저의 사용을 권장합니다.
+
카메라를 연결했는데도 블록이 동작하지 않거나, 영상이 제대로 입력되지 않는 경우 인터넷 브라우저의 설정을 변경해 카메라 사용을 허용해주세요. (크롬 브라우저의 경우, 주소 표시줄 오른쪽의 카메라 아이콘을 클릭하거나 ‘설정 > 개인정보 및 보안 > 사이트 설정 > 카메라’ 에서 엔트리 사이트의 카메라 사용을 허용해 주세요.)
+
+
손 인식 블록이 인식할 수 있는 부위는 아래와 같습니다.
-
분류 모델에서는 “클래스 속성”을, 예측 모델에서는 “예측 속성”을 설정해야 했지만, 군집 모델은 그런 ‘결과’를 설정하지 않고, ‘원인’만 설정해도 됩니다.
+
엄지,
+
끝, 첫째 마디
+
-
군집: 숫자 모델을 학습하려먼 먼저 데이터로 삼을 테이블을 추가해야 합니다. 학습하기 전에 데이터 분석 카테고리에서 [테이블 불러오기]를 통해, 기본 테이블, 파일 업로드, 새로 만들기의 방법으로 테이블을 추가 해주세요.
+
검지,
+
끝, 첫째 마디, 둘째 마디
+
+
+
중지,
+
끝, 첫째 마디, 둘째 마디
+
+
약지,
+
끝, 첫째 마디, 둘째 마디
-
군집: 숫자 모델을 선택하면 아래와 같이 모델 학습하기 창이 나타납니다.
-
-
먼저 모델의 이름부터 지어볼까요? 이름 상자를 클릭해서 모델의 이름을 정합니다.
-
① 데이터 입력하기 = 테이블 선택하기
군집: 숫자 모델 학습의 첫 단계는 데이터 입력 박스에서 모델의 데이터로 삼을 테이블을 선택하는 것이에요. 모델을 학습하기 전에, ‘데이터 분석 블록’ 카테고리에서 테이블을 추가하는 것을 잊지 마세요!
-
-
목록 상자를 눌러 작품에 추가한 테이블 중에서 모델 학습에서 사용할 테이블을 선택하면, 바로 아래에 테이블의 속성이 표시됩니다. 여기서 표시되는 속성은 (1행을 제외한) 모든 행이 숫자로 이루어진 속성입니다. (숫자 데이터를 학습하는 모델이니 당연하겠죠?)
-
+
+
소지,
+
끝, 첫째 마디, 둘째 마디
+
+
+
손목
+
+
1. 비디오 화면 [보이기]
+
카메라가 촬영하는 화면(앞으로 ‘비디오 화면’이라고 부를게요)을 실행 화면에서 보이거나 숨깁니다.
+
목록 상자()를 클릭하면 보일지 숨길지 고를 수 있어요.
+
2. [1번] 카메라로 바꾸기
+
비디오 화면을 촬영할 카메라를 선택한 카메라로 바꿉니다.
+
목록 상자()를 클릭하면 기기에 연결된 카메라 목록이 표시되고, 이 중에서 하나를 선택할 수 있어요.
+
3. <카메라가 연결되었는가?>
+
기기에 카메라가 연결되어 있다면 참으로, 아니라면 거짓으로 판단하는 블록입니다.
+
4. 비디오 화면 [좌우] 뒤집기
+
비디오 화면을 실행 화면에서 좌우(가로) 또는 상하(세로)로 뒤집습니다.
+
기본 화면은 거울을 보는 것처럼 좌우로 뒤집어져 있어요.
+
목록 상자()를 클릭하면 뒤집을 방향을 선택할 수 있어요.
+
5. 비디오 투명도 효과를 (0) 으로 정하기
+
비디오 화면의 투명도 효과를 입력한 숫자로 정합니다. 0%~100% 범위에서 조절할 수 있어요.
+
이 블록을 사용하지 않았을 때 기본 투명도 효과는 50%입니다.
+
6. ([자신] 에서 감지한 [움직임] 값)
+
비디오 화면에서 오브젝트나 실행 화면이 감지한 움직임 정도를 가져오는 값 블록입니다.
+
목록 상자()를 클릭하면 감지할 대상과 감지할 값을 선택할 수 있어요.
-
핵심 속성: 핵심 속성은 속성 중에서 ‘원인’에 해당하는 속성을 말합니다. 조금 어렵게 말하면 ‘독립 변수’ 또는 ‘설명 변수’를 의미합니다. 모델이 학습할 때 어떤 속성을 원인으로 삼을 것인지를 선택하는 부분이에요. 엔트리에서는 최대 3개까지 핵심 속성을 설정할 수 있습니다. 군집 모델에서는 핵심 속성만으로 모델을 학습합니다.
-
군집 개수: 군집 모델의 종류는 여러가지가 있지만, 엔트리에서 사용하는 알고리즘은 ‘K-평균 알고리즘’이에요. 이 때, K는 몇 개의 군집으로 묶을 것인지를 의미합니다. 군집 개수를 4로 정한다면, 입력한 데이터를 4개의 묶음으로 묶겠다는 뜻이에요.
-
중심점 기준: 모델을 학습할 때, 군집의 최초 중심점의 기준을 어떻게 설정할 지, 선택하는 부분입니다. 중심점은 학습이 진행되면서 더 적절한 위치로 계속해서 이동하는데요. 그래도 맨 처음에 어디에 둘지는 먼저 결정해야겠죠? 엔트리에서는 ‘무작위’와 ‘가장 먼 거리’로 두 가지 선택지가 있어요.
-
‘무작위’는 말 그래도 아무 곳에나 두는 것이고, ‘가장 먼 거리’는 군집의 중심점이 서로 가장 먼 곳에 두도록 설정하는 것입니다.
-
사실 학습을 충분히 한다면 처음에 정하는 중심점 기준은 큰 의미가 없어요. 가장 적절한 위치를 찾아가는데 걸리는 시간(몇 번만에 찾아가는지)만 달라질 뿐입니다. (물론 시행 회수(epoch)가 충분하다는 전제가 필요합니다!)
+
감지할 대상 (첫 번째 목록 상자)
+
자신 : 해당 오브젝트에서 움직임을 감지합니다.
+
실행 화면 : 촬영하는 전체 화면에서 움직임을 감지합니다.
+
감지할 값 (두 번째 목록 상자)
+
움직임 : 움직임이 작고 느릴수록 0 에 가깝고, 크고 많을수록 큰 수를 가져옵니다.
+
방향 : 오른쪽 또는 위쪽으로 움직일수록 양수로 커지고, 왼쪽 또는 아래쪽으로 움직일수록 음수로 커지는 수를 가져옵니다.
-
② 학습하기
-
이렇게 핵심 속성, 군집 개수, 중심점 기준을 설정하고 나면, 학습 박스의 [모델 학습하기] 버튼을 클릭할 수 있게 됩니다.
+
+
+
7. 손을 인식했을 때
+
손을 인식했을 때 아래의 블록이 동작합니다.
+
한 번 인식을 시작하고 연속적으로 인식이 유지되면 다시 동작하지 않지만, 손이 새롭게 인식되는 순간 다시 블록이 동작합니다.
+
손 인식을 시작하지 않았다면 블록이 동작하지 않아요.
+
8. 손 인식 [시작하기]
+
손 인식을 시작하거나 중지합니다.
+
손을 인식하려면 꼭 이 블록을 통해 인식을 시작해야 해요.
+
목록 상자()를 클릭하면 인식을 시작할지 중지할지 선택할 수 있어요.
+
9. 인식한 손 [보이기]
+
인식한 손을 실행 화면에서 보이거나 숨깁니다.
+
‘보이기’를 선택하면 인식한 손을 점과 그 사이를 잇는 선의 형태로 표시해요.
+
목록 상자 ()를 클릭하면 인식한 형태를 보일지 숨길지 고를 수 있어요.
+
10. <손을 인식했는가?>
+
손을 인식했다면 참으로, 아니라면 거짓으로 판단하는 블록입니다.
+
손 인식을 시작하지 않았다면 항상 거짓으로 판단해요.
+
11. (인식한 손의 수)
+
인식한 손이 몇 개인지를 가져오는 값 블록입니다.
+
최대 2개의 손을 인식할 수 있습니다.
+
12. [1] 번째 손의 [엄지][끝] (으)로 이동하기
+
이 오브젝트가 손의 선택한 부위로 이동합니다.
+
목록 상자()를 클릭하면 인식한 순서의 손과 부위를 선택할 수 있어요.
+
13. (2) 초 동안 [1] 번째 손의 [엄지][끝] (으)로 이동하기
+
입력한 시간()동안 이 오브젝트가 손의 선택한 부위로 이동합니다.
+
목록 상자()를 클릭하면 인식한 순서의 손과 부위를 선택할 수 있어요.
+
14. ([1] 번째 손의 [엄지][끝] 의 [x] 좌표)
+
손 부위의 x 또는 y 좌표를 가져오는 값 블록입니다.
+
손을 인식하지 않을 때는 0 을 가져와요.
+
목록 상자()를 클릭하면 인식한 순서의 손과 부위를 선택할 수 있어요.
+
15. <[1] 번째 손이 [오른손] 인가?>
+
인식한 손과 선택한 오른손/왼손이 같다면 참으로, 아니라면 거짓으로 판단하는 블록입니다.
+
16. ([1] 번째 손)
+
인식한 손이 오른손인지 왼손인지 가져오는 값 블록입니다.
+
17. <[1] 번째 손의 모양이 [쥔 손] 인가?>
+
인식한 손의 모양과 선택한 손의 모양이 같다면 참으로, 아니라면 거짓으로 판단하는 블록입니다.
+
+
선택할 수 손의 모양
-
군집: 숫자 모델은 학습 박스에서 별도의 학습 조건을 설정할 수 없어요.
+
쥔 손, 편 손, 가리킨 손, 엄지 아래로, 엄지 위로, 브이 사인, 사랑해
+
+
-
③ 결과 확인하기
모델 학습이 모두 완료되었다면, 결과 박스에서 학습 결과를 확인할 수 있습니다. 군집 모델의 결과는 학습 데이터를 설정한 군집 개수에 맞춰, 각각의 군집으로 구분되어 표현됩니다. (차트에서 점의 색깔이 서로 다르죠?)
-
또한 각 군집의 중심점 좌표가 구해집니다. 새로운 데이터는 이 중심점 좌표 중 가장 가까운 좌표의 군집에 속하는 것으로 보면 되겠죠? 핵심 속성의 개수만큼 중심점을 나타내는 차원이 증가합니다.
-
-
핵심 속성을 2개로 설정했다면 위와 같이 2차원 좌표 평면에서 군집을 색으로 구분한 점 차트와 각 중심점의 위치를 확인할 수 있습니다.
-
핵심 속성을 3개 이상 설정했다면 2차원에서 표현할 수 없기 때문에 차트는 표시되지 않습니다.
-
1. 모델 다시 학습하기
-
모델을 다시 학습합니다.
-
모델 설정을 변경하거나 입력 데이터가 되는 테이블의 내용을 수정했다면, 변경된 내용을 바탕으로 모델을 다시 학습합니다.
-
2. <모델이 학습되었는가?>
-
모델의 학습 상태를 가져오는 판단 블록입니다.
-
모델이 학습되었다면 ‘참’을, 학습 중이거나 학습되지 않았다면 ‘거짓’으로 판단합니다.
-
3. 모델 [보이기]
-
모델의 학습 상태를 표시하는 창을 실행 화면에 보이게 하거나 숨깁니다.
-
목록 상자()를 클릭해서 보이기/숨기기를 선택할 수 있어요.
-
4. 모델 차트 창 [열기]
-
모델을 학습할 때 입력한 데이터와 모델이 분류한 클래스를 2차원 좌표평면에 나타낸 차트 창을 열거나 닫습니다.
-
핵심 속성이 3개 이상인 경우 모델의 차트를 2차원 좌표평면 위에 그릴 수 없기 때문에, 이 블록은 표시되지 않습니다.
-
목록 상자()를 클릭해서 열기/닫기를 선택할 수 있어요.
-
5. 군집을 (10) 개로 바꾸기
-
군집 개수를 입력한 값으로 바꾸어 설정합니다.
-
변경한 군집 개수는 ‘모델 다시 학습하기’ 블록으로 모델을 다시 학습할 때부터 적용됩니다.
-
6. 중심점 기준을 [가장 먼 거리] 로 바꾸기
-
군집의 최초 중심점 기준을 선택한 기준으로 바꾸어 설정합니다.
-
변경한 중심점 기준은 ‘모델 다시 학습하기’ 블록으로 모델을 다시 학습할 때부터 적용됩니다.
-
목록 상자()를 클릭해서 가장 먼 거리/무작위를 선택할 수 있어요.
-
7. 핵심 속성1 (10) 핵심 속성2 (10) 의 분류 결과
-
모델의 군집 개수를 가져오는 값 블록입니다.
-
8. 군집 (1) 중심점의 [핵심 속성1] 값
-
입력한 군집의 중심점에 대한 핵심 속성의 값을 가져오는 값 블록입니다.
-
목록 상자()를 클릭해서 모델을 학습할 때 설정한 속성 중 하나를 선택할 수 있습니다.
-
9. 핵심 속성1 (10) 핵심 속성2 (10) 의 군집
-
핵심 속성의 값을 입력해 모델이 묶은 군집 중 어디에 속하는 지를 가져오는 값 블록입니다.
-
값은 숫자(군집 이름)로 표현됩니다.
+
18. ([1] 번째 손의 모양)
+
인식한 손의 모양을 가져오는 값 블록입니다.
+
손 인식 블록이 인식할 수 없는 손의 모양인 경우 ‘알 수 없음’을 가져옵니다.
diff --git a/user/block_ai_model_voice.html b/user/block_ai_human.html
similarity index 54%
rename from user/block_ai_model_voice.html
rename to user/block_ai_human.html
index ec9a432a..c830019b 100644
--- a/user/block_ai_model_voice.html
+++ b/user/block_ai_human.html
@@ -2,21 +2,21 @@
- 인공지능 블록 > 분류 모델 - 음성 — Entry Docs
+ AI 블록 > 사람 인식 — Entry Docs
-
+
-
+
-
+
@@ -72,20 +72,20 @@
"@type": "Person",
"name": "Entrylabs"
},
- "headline": "인공지능 블록 > 분류 모델 - 음성",
+ "headline": "AI 블록 > 사람 인식",
"image": "https://docs.playentry.org/images/logo.png",
- "datePublished": "2021-08-09",
- "dateCreated": "2021-08-09",
- "dateModified": "2023-11-17",
- "url": "https://docs.playentry.org/user/block_ai_model_voice.html",
+ "datePublished": "2023-11-27",
+ "dateCreated": "2023-11-27",
+ "dateModified": "2023-11-29",
+ "url": "https://docs.playentry.org/user/block_ai_human.html",
"description": "Entry Docs - 엔트리 개발 가이드&위키",
- "wordCount": "751",
+ "wordCount": "722",
"publisher": "Entrylabs",
"mainEntityOfPage": {
"@type": "WebPage",
- "@id": "https://docs.playentry.org/user/block_ai_model_voice.html"
+ "@id": "https://docs.playentry.org/user/block_ai_human.html"
}
}
@@ -323,7 +323,7 @@
학습 데이터로 입력한 음성을 클래스로 직접 분류하고 학습시키면 새롭게 입력되는 음성을 분류할 수 있는 모델을 만들 수 있습니다. 음성의 파형이 얼마나 유사한지를 기준으로 분류하는 모델이에요.
-
모델이 학습할 음성은 직접 녹음하거나 wav, mp3 파일로 업로드할 수 있어요. 직접 녹음할 때는 1~3초까지 녹음 길이를 설정할 수 있고, 녹음된 음성의 앞부분과 뒷부분을 잘라낼 수 있는 트리밍 기능을 사용할 수 있답니다.
+
+
카메라로 입력되는 이미지(영상)을 통해 사람의 신체를 인식하는 블록입니다. 인공지능이 신체 각 부위의 위치를 인식하는 것을 간단히 경험해 볼 수 있어요!
-
음성 모델은 사용자의 PC 환경에 따라 로딩 시간이 오래 걸릴 수 있습니다.
-
음성 모델의 ‘녹음’ 모드는 마이크 사용이 가능한 브라우저에서만 사용할 수 있습니다. 인터넷 익스플로러에서는 마이크 사용이 불가능해 해당 모드를 사용할 수 없습니다.
+
이 블록은 카메라 연결이 꼭 필요한 블록입니다. 데스크탑의 경우 별도 웹캠을 연결해 주세요. ※ 카메라를 통해 입력되는 영상은 절대로 서버에 저장되거나 외부로 공유되지 않습니다.
+
이 블록은 인터넷 익스플로러 브라우저와 iOS 운영 체제에서는 동작하지 않습니다. 인터넷 브라우저의 경우, 안정적인 동작을 위해 구글 크롬 또는 네이버 웨일 브라우저의 사용을 권장합니다.
+
카메라를 연결했는데도 블록이 동작하지 않거나, 영상이 제대로 입력되지 않는 경우 인터넷 브라우저의 설정을 변경해 카메라 사용을 허용해주세요. (크롬 브라우저의 경우, 주소 표시줄 오른쪽의 카메라 아이콘을 클릭하거나 ‘설정 > 개인정보 및 보안 > 사이트 설정 > 카메라’ 에서 엔트리 사이트의 카메라 사용을 허용해 주세요.)
-
음성 모델을 선택하면 아래와 같이 음성 모델 학습하기 창이 나타납니다.
-
-
먼저 모델의 이름부터 지어볼까요? 이름 상자를 클릭해서 모델의 이름을 정합니다.
-
① 클래스 만들기
모델 학습의 첫 단계는 데이터 입력 영역을 클래스로 채우는 것이에요. 클래스는 학습할 데이터의 묶음이고, 데이터를 분류하는 기준입니다.
-
[클래스 추가하기] 버튼을 클릭하면 클래스를 필요한 만큼 추가할 수 있어요.
-
-
각 클래스를 선택하면 자세한 정보와 함께 음성을 입력할 수 있어요. 이름 상자를 클릭하면 클래스의 이름을 정할 수 있습니다. 학습 모델이 알려주는 결과 값으로 클래스 이름을 사용하니까 클래스 이름을 알아보기 쉽게 정해주는 것이 중요해요.
-
왼쪽의 목록 상자를 클릭하면 음성을 어떻게 입력할 것인지 선택할 수 있어요.
+
사람 인식 블록이 인식할 수 있는 부위는 아래와 같습니다.
-
업로드 : 음성 파일을 올립니다. 파일은 10MB 이하여야 하고, wav, mp3 형식(확장자)를 지원해요.
-
녹음 : 기기와 연결한 마이크로 음성을 녹음합니다. 가운데 상자에서 녹음하는 음성의 파장을 볼 수 있고, [입력하기] 버튼을 눌러 사진을 촬영할 수 있어요. 1~3초까지 녹음할 수 있고, 양쪽의 빨간 선을 드래그하면 음성의 앞/뒤를 잘라내는 트리밍 기능을 사용할 수 있어요.
+
코, 왼쪽 눈 안쪽, 왼쪽 눈, 왼쪽 눈 바깥쪽, 오른쪽 눈 안쪽, 오른쪽 눈, 오른쪽 눈 바깥쪽, 왼쪽 귀, 오른쪽 귀, 왼쪽 입꼬리, 오른쪽 입꼬리, 왼쪽 어깨, 오른쪽 어깨, 왼쪽 팔꿈치, 오른쪽 팔꿈치, 왼쪽 손목, 오른쪽 손목, 왼쪽 소지, 오른쪽 소지, 왼쪽 검지, 오른쪽 검지, 왼쪽 엄지, 오른쪽 엄지, 왼쪽 엉덩이, 오른쪽 엉덩이, 왼쪽 무릎, 오른쪽 무릎, 왼쪽 발목, 오른쪽 발목, 왼쪽 발꿈치, 오른쪽 발꿈치, 왼쪽 발끝, 오른쪽 발끝
-
-
-
각 클래스에 대해서 충분히 학습을 할 수 있도록 최소 5개 이상의 음성을 입력해야 합니다. 입력한 각 음성은 마우스 포인터를 대거나 터치하면 나타나는 [X] 버튼을 눌러서 삭제할 수 있어요.
-
② 학습 조건 설정하기
-
-
이렇게 2개 이상의 클래스를 만들고 나면, 학습 박스의 [모델 학습하기] 버튼을 클릭할 수 있습니다. 이 버튼을 바로 눌러 학습을 완료할 수도 있지만, ‘모델을 학습시킬 수 있습니다’ 글씨를 클릭해서 다양한 학습 조건을 설정할 수 있어요.
-
-
+
1. 비디오 화면 [보이기]
+
카메라가 촬영하는 화면(앞으로 ‘비디오 화면’이라고 부를게요)을 실행 화면에서 보이거나 숨깁니다.
+
목록 상자()를 클릭하면 보일지 숨길지 고를 수 있어요.
+
2. [1번] 카메라로 바꾸기
+
비디오 화면을 촬영할 카메라를 선택한 카메라로 바꿉니다.
+
목록 상자()를 클릭하면 기기에 연결된 카메라 목록이 표시되고, 이 중에서 하나를 선택할 수 있어요.
+
3. <카메라가 연결되었는가?>
+
기기에 카메라가 연결되어 있다면 참으로, 아니라면 거짓으로 판단하는 블록입니다.
+
4. 비디오 화면 [좌우] 뒤집기
+
비디오 화면을 실행 화면에서 좌우(가로) 또는 상하(세로)로 뒤집습니다.
+
기본 화면은 거울을 보는 것처럼 좌우로 뒤집어져 있어요.
+
목록 상자()를 클릭하면 뒤집을 방향을 선택할 수 있어요.
+
5. 비디오 투명도 효과를 (0) 으로 정하기
+
비디오 화면의 투명도 효과를 입력한 숫자로 정합니다. 0%~100% 범위에서 조절할 수 있어요.
+
이 블록을 사용하지 않았을 때 기본 투명도 효과는 50%입니다.
+
6. ([자신] 에서 감지한 [움직임] 값)
+
비디오 화면에서 오브젝트나 실행 화면이 감지한 움직임 정도를 가져오는 값 블록입니다.
+
목록 상자()를 클릭하면 감지할 대상과 감지할 값을 선택할 수 있어요.
-
세대(Epoch) 입력한 데이터 전체를 몇 번 반복하여 학습할지 정하는 부분입니다. 입력한 모든 데이터 전체를 1번 학습하는 것을 1세대라고 부르고, 세대는 에포크라고도 불러요.
-
다양한 문제(데이터)가 담긴 문제집 1권을 총 몇 번을 푸냐는 것과 같은 것이지요. 그러나 문제집을 1번만 봐서 문제를 잘 푸는 사람이 없듯이 1번만 학습하면 정확하지 않은 결과가 나올 수도 있어요. 반면 하나의 문제집만 너무 반복해서 학습하면 계속 같은 문제만 학습하다 보니 응용력이 부족해지겠죠?
-
적당히 학습해야 좋은 결과를 얻을 수 있습니다.
-
-
배치 크기(Batch Size) 입력한 데이터 전체를 얼마큼 작은 부분으로 쪼개서 학습할지 정하는 부분입니다.
-
다양한 문제(데이터)가 담긴 문제집 1권에서 숙제를 어디서부터 어디까지 할지 범위를 정하는 것과 비슷해요. 숙제의 범위가 넓으면 문제집 한 권을 빠르게 끝낼 수 있고, 숙제의 범위가 좁으면 숙제를 여러 번 해야 문제집을 다 끝낼 수 있는 것과 같습니다.
-
-
학습률(Learning Rate) 데이터를 얼마나 세세하게 학습할지를 정하는 부분입니다.
-
모델이 계속 학습하면서 가장 나은 결과를 갖는 점을 찾아간다고 상상하면, 그 때의 보폭의 크기를 정하는 것과 같아요. 보폭이 작으면 가장 나은 결과를 찾을 수는 있겠지만 시간이 오래 걸릴 것이고, 보폭이 크면 가장 나은 결과를 자꾸 지나치면서 제대로 된 결과를 찾아내지 못 할 수 있어요.
+
감지할 대상 (첫 번째 목록 상자)
+
자신 : 해당 오브젝트에서 움직임을 감지합니다.
+
실행 화면 : 촬영하는 전체 화면에서 움직임을 감지합니다.
+
-
검증 데이터 비율(Validation Data Rate) 입력한 데이터 중 어느정도 비율을 학습한 모델을 검증하는 데에 사용할지 정하는 부분입니다.
-
검증 데이터 비율을 0.3로 정했다면 10개의 데이터를 입력했을 때 7개는 학습용으로, 3개는 검증용으로 사용하겠다는 뜻이 돼요.
+
감지할 값 (두 번째 목록 상자)
+
움직임 : 움직임이 작고 느릴수록 0 에 가깝고, 크고 많을수록 큰 수를 가져옵니다.
+
방향 : 오른쪽 또는 위쪽으로 움직일수록 양수로 커지고, 왼쪽 또는 아래쪽으로 움직일수록 음수로 커지는 수를 가져옵니다.
+
-
③ 학습 결과 확인하기
학습 조건을 모두 설정했다면 [모델 학습하기] 버튼을 클릭해서, 결과 박스에서 결과를 확인할 수 있습니다.
-
-
클래스에 음성을 입력하는 것처럼, 음성을 업로드해서 학습 모델이 음성을 제대로 학습했는지 확인할 수 있어요.
-
각 클래스에 얼마나 가까운지 막대 그래프로 비교해보세요!
-
-
이렇게 학습을 완료했다면, 학습 영역에서 [차트] 버튼을 클릭해 학습의 과정을 그래프로 확인할 수 있어요.
-
가로축은 세대(Epoch)를 나타냅니다. 세로축에서 acc는 학습 정확도를 의미하고, val_acc는 검증 정확도를 나타냅니다. 정확도가 1에 가까울수록 더 정확한 인식 결과를 얻을 수 있어요.
-
1. 학습한 모델로 분류하기
-
데이터 입력 팝업 창을 열고, 입력한 데이터를 학습한 모델로 분류합니다.
-
-
-
동시에 작품을 일시 정지해요. 오른쪽 아래 버튼을 클릭해서 창을 닫지 않고도 작품을 다시 시작할 수 있습니다.
-
오른쪽 위의 [X] 버튼을 클릭하면, 데이터를 입력하지 않고 창을 닫을 수도 있어요.
-
2. 분류 결과
-
입력한 데이터를 학습한 모델로 분류한 결과를 가져오는 값 블록입니다.
-
입력한 데이터와 가장 비슷한 클래스의 이름을 가져와요. 만일 데이터를 입력하지 않았다면 아무 것도 가져오지 않아요.
-
3. [클래스] 의 신뢰도
-
입력한 데이터가 분류된 클래스에 대한 신뢰도를 가져오는 값 블록입니다.
-
만일 데이터를 입력하지 않았다면 0 을 가져와요.
-
목록 상자()를 클릭하면 정확도를 가져올 클래스를 선택할 수 있어요.
-
4. <분류 결과가 [클래스] 인가?>
-
입력한 데이터가 선택한 클래스와 가장 비슷하다면 참, 아니라면 거짓으로 판단하는 블록입니다.
-
만일 데이터를 입력하지 않았다면 항상 거짓을 가져와요.
-
목록 상자()를 클릭하면 결과를 확인할 클래스를 선택할 수 있어요.
+
7. 사람을 인식했을 때
+
사람을 인식했을 때 아래의 블록이 동작합니다.
+
한 번 인식을 시작하고 연속적으로 인식이 유지되면 다시 동작하지 않지만, 사람이 새롭게 인식되는 순간 다시 블록이 동작합니다.
모델이 학습할 숫자를 테이블로 업로드하거나 직접 작성해 데이터로 입력하고, 입력한 데이터의 몇몇 속성을 바탕으로 하나의 속성을 예측하는 모델을 학습합니다.
-
-
예측: 숫자 모델을 학습하려먼 먼저 데이터로 삼을 테이블을 추가해야 합니다. 학습하기 전에 데이터 분석 카테고리에서 [테이블 불러오기]를 통해, 기본 테이블, 파일 업로드, 새로 만들기의 방법으로 테이블을 추가 해주세요.
-
-
예측: 숫자 모델을 선택하면 아래와 같이 모델 학습하기 창이 나타납니다.
-
-
먼저 모델의 이름부터 지어볼까요? 이름 상자를 클릭해서 모델의 이름을 정합니다.
-
① 데이터 입력하기 = 테이블 선택하기
예측: 숫자 모델 학습의 첫 단계는 데이터 입력 박스에서 모델의 데이터로 삼을 테이블을 선택하는 것이에요. 모델을 학습하기 전에, ‘데이터 분석 블록’ 카테고리에서 테이블을 추가하는 것을 잊지 마세요!
-
-
목록 상자를 눌러 작품에 추가한 테이블 중에서 모델 학습에서 사용할 테이블을 선택하면, 바로 아래에 테이블의 속성이 표시됩니다. 여기서 표시되는 속성은 (1행을 제외한) 모든 행이 숫자로 이루어진 속성입니다. (숫자 데이터를 학습하는 모델이니 당연하겠죠?)
-
-
-
핵심 속성: 핵심 속성은 속성 중에서 ‘원인’에 해당하는 속성을 말합니다. 조금 어렵게 말하면 ‘독립 변수’ 또는 ‘설명 변수’를 의미합니다. 모델이 학습할 때 어떤 속성을 원인으로 삼을 것인지를 선택하는 부분이에요. 엔트리에서는 최대 3개까지 핵심 속성을 설정할 수 있습니다.
-
-
예를 들어, 어떤 지역에 있는 집의 ‘건축 연도’, ‘역과의 거리’, ‘면적’을 핵심 속성으로 삼는다고 생각해 보세요.
-
-
-
-
-
예측 속성: 예측 속성은 예측: 숫자 모델의 ‘결과’에 해당하는 예측 값이 되는 속성을 말합니다. 다르게 말하면 ‘종속 변수’에 해당해요. 예측 모델이 학습의 결과로, 입력한 데이터를 어떤 속성의 값으로 예측할지 선택하는 부분이에요. 예측 속성도 핵심 속성과 마찬가지로 모든 행이 숫자로 이루어진 속성만 선택할 수 있어요.
-
-
예를 들어, 집의 ‘월세’를 예측 속성으로 삼는다고 생각해 보세요. 핵심 속성이 원인이고 예측 속성이 결과니까, 학습한 모델이 집의 ‘건축 연도’, ‘역과의 거리’, ‘면적’를 가지고 ‘월세’를 예측해낼 수 있겠죠?
-
-
-
-
② 학습하기
-
이렇게 핵심 속성, 예측 속성을 설정하고 나면, 학습 박스의 [모델 학습하기] 버튼을 클릭할 수 있게 됩니다. 이 버튼을 눌러 학습을 바로 시작할 수도 있지만, ‘모델을 학습할 수 있습니다.’ 글씨를 클릭해서 다양한 학습 조건을 설정할 수도 있어요.
-
-
-
세대(Epoch) 입력한 데이터 전체를 몇 번 반복하여 학습할지 정하는 부분입니다. 입력한 모든 데이터 전체를 1번 학습하는 것을 1세대라고 부르고, 세대는 에포크라고도 불러요.
-
다양한 문제(데이터)가 담긴 문제집 1권을 총 몇 번을 푸냐는 것과 같은 것이지요. 그러나 문제집을 1번만 봐서 문제를 잘 푸는 사람이 없듯이 1번만 학습하면 정확하지 않은 결과가 나올 수도 있어요. 반면 하나의 문제집만 너무 반복해서 학습하면 계속 같은 문제만 학습하다 보니 응용력이 부족해지겠죠?
-
적당히 학습해야 좋은 결과를 얻을 수 있습니다.
-
-
배치 크기(Batch Size) 입력한 데이터 전체를 얼마큼 작은 부분으로 쪼개서 학습할지 정하는 부분입니다.
-
다양한 문제(데이터)가 담긴 문제집 1권에서 숙제를 어디서부터 어디까지 할지 범위를 정하는 것과 비슷해요. 숙제의 범위가 넓으면 문제집 한 권을 빠르게 끝낼 수 있고, 숙제의 범위가 좁으면 숙제를 여러 번 해야 문제집을 다 끝낼 수 있는 것과 같습니다.
-
-
학습률(Learning Rate) 데이터를 얼마나 세세하게 학습할지를 정하는 부분입니다.
-
모델이 계속 학습하면서 가장 나은 결과를 갖는 점을 찾아간다고 상상하면, 그 때의 보폭의 크기를 정하는 것과 같아요. 보폭이 작으면 가장 나은 결과를 찾을 수는 있겠지만 시간이 오래 걸릴 것이고, 보폭이 크면 가장 나은 결과를 자꾸 지나치면서 제대로 된 결과를 찾아내지 못 할 수 있어요.
-
-
테스트 데이터 비율(Test Data Rate) 입력한 데이터 중 어느정도 비율을 학습한 모델을 테스트하는 데에 사용할지 정하는 부분입니다.
-
테스트 데이터 비율을 0.3로 정했다면 10개의 데이터를 입력했을 때 7개는 학습용으로, 3개는 테스트용으로 사용하겠다는 뜻이 돼요.
-
-
-
학습 조건을 기본값으로 두거나, 조건을 변경한 후 [모델 학습하기] 버튼을 클릭하면 모델 학습이 시작됩니다.
-
)
-
이렇게 학습을 모두 완료했다면, [차트] 버튼을 클릭해 학습한 과정을 그래프로도 확인할 수 있어요. 이 때, 예측 모델에서 보여주는 그래프는 모델의 정확도가 아니라 평균 제곱 오차(MSE)입니다. 평균 제곱 오차는 정확도와는 반대로 작으면 작을 수록 모델이 정확하다는 뜻이에요.
-
가로축은 세대(Epoch)를 나타냅니다. 세로축에서 loss는 학습 오차(MSE)를 의미하고, val_loss는 검증 오차를 나타냅니다. 오차가 0에 가까울수록 더 정확한 결과라는 것을 의미해요.
-
③ 결과 확인하기
모델 학습이 모두 완료되었다면, 결과 박스에서 학습 결과를 확인할 수 있습니다. 예측 모델의 결과는 핵심 속성의 값을 대입하면 예측 값을 얻을 수 있는 함수 형태로 구해지는데요. 핵심 속성의 개수만큼 회귀식의 X(독립 변수)의 개수가 늘어납니다.
-
-
핵심 속성을 1개, 예측 속성을 1개 설정했다면 모델이 만든 회귀식과 위와 같이 2차원 좌표 평면에서 점 차트와 회귀선(회귀식으로 그린 직선)을 확인할 수 있습니다.
-
-
그어진 회귀선이 데이터를 가장 잘 표현하는 직선인지 확인해 보세요!
-
-
핵심 속성을 2개 이상 설정했다면 모델이 만든 회귀식을 확인할 수 있습니다. 단, 2차원에서 표현할 수 없기 때문에 차트는 표시되지 않습니다.
-
-
이제 예측 모델을 학습해 봤으니, 작품에서 한 번 활용해 볼까요?
-
1. 모델 다시 학습하기
-
모델을 다시 학습합니다.
-
모델 설정을 변경하거나 입력 데이터가 되는 테이블의 내용을 수정했다면, 변경된 내용을 바탕으로 모델을 다시 학습합니다.
-
2. <모델이 학습되었는가?>
-
모델의 학습 상태를 가져오는 판단 블록입니다.
-
모델이 학습되었다면 ‘참’을, 학습 중이거나 학습되지 않았다면 ‘거짓’으로 판단합니다.
-
3. 모델 [보이기]
-
모델의 학습 상태를 표시하는 창을 실행 화면에 보이게 하거나 숨깁니다.
-
목록 상자()를 클릭해서 보이기/숨기기를 선택할 수 있어요.
-
4. 모델 차트 창 [열기]
-
모델을 학습할 때 입력한 데이터와 모델이 분류한 클래스를 2차원 좌표평면에 나타낸 차트 창을 열거나 닫습니다.
-
핵심 속성이 2개 이상인 경우 모델의 차트를 2차원 좌표평면 위에 그릴 수 없기 때문에, 이 블록은 표시되지 않습니다.
-
목록 상자()를 클릭해서 열기/닫기를 선택할 수 있어요.
-
5. 학습 조건 [학습률] 을 (10) 으로 바꾸기
-
선택한 학습 조건을 입력한 값으로 바꾸어 설정합니다.
-
변경한 학습 조건은 ‘모델 다시 학습하기’ 블록으로 모델을 다시 학습할 때부터 적용됩니다.
-
세대가 자연수가 아닌 경우, 학습률과 테스트 데이터 비율이 0 보다 작거나 1보다 큰 경우에는 (조건이 옳지 않기 때문에) 작품 실행 시 오류가 발생합니다.
-
-
학습 조건
-
학습률,세대, 테스트 데이터 비율
-
-
-
-
6. 핵심 속성1 (10) 의 예측 값
-
핵심 속성의 값을 입력해 모델이 분류한 클래스를 가져오는 값 블록입니다.
-
값은 숫자로 표현됩니다.
-
‘핵심 속성1’ 등은 모델 학습 시 선택한 속성 이름으로 표시되며, 설정한 핵심 속성의 개수에 따라 값 블록을 결합할 수 있는 개수도 함께 늘어납니다.
-
7. 결정 계수
-
모델의 결정 계수를 가져오는 값 블록입니다.
-
모델이 얼마나 잘 예측하는지, 모델의 설명력을 표현하는 값입니다. 단, 모델의 정확도와 완전히 같은 것은 아니니 사용에 주의해 주세요.
카메라로 입력되는 이미지(영상)을 통해 얼굴/사람(신체)/사물을 인식하는 블록입니다. 카메라에 여러분 스스로를 비춰보고 얼굴 표정, 몸 동작, 다양한 사물을 인공지능이 어떻게 자동으로 감지하고 인식하는지 경험할 수 있어요!
+
+
카메라로 입력되는 이미지(영상)을 통해 사물을 인식하는 블록입니다. 인공지능이 80여 개의 다양한 사물을 인식하는 것을 간단히 경험해 볼 수 있어요!
-
비디오 감지 블록은 Internet Explorer와 iOS에서는 동작하지 않습니다. (안정적인 동작을 위해 크롬을 사용해주세요.)
-
-
비디오 감지 블록은 카메라 연결이 필요한 블록입니다. 데스크탑의 경우 별도 웹캠을 연결해주세요.
-
-
카메라를 연결했는데도 블록이 동작하지 않거나, 영상이 제대로 입력되지 않는 경우 인터넷 브라우저의 설정을 변경해 카메라 사용을 허용해주세요. (크롬의 경우, 주소 표시줄 오른쪽의 카메라 아이콘을 클릭하거나 ‘설정 > 개인정보 및 보안 > 사이트 설정 > 카메라’ 에서 엔트리 사이트의 카메라 사용을 허용해 주세요.)
-
-
+
이 블록은 카메라 연결이 꼭 필요한 블록입니다. 데스크탑의 경우 별도 웹캠을 연결해 주세요. ※ 카메라를 통해 입력되는 영상은 절대로 서버에 저장되거나 외부로 공유되지 않습니다.
+
이 블록은 인터넷 익스플로러 브라우저와 iOS 운영 체제에서는 동작하지 않습니다. 인터넷 브라우저의 경우, 안정적인 동작을 위해 구글 크롬 또는 네이버 웨일 브라우저의 사용을 권장합니다.
+
카메라를 연결했는데도 블록이 동작하지 않거나, 영상이 제대로 입력되지 않는 경우 인터넷 브라우저의 설정을 변경해 카메라 사용을 허용해주세요. (크롬 브라우저의 경우, 주소 표시줄 오른쪽의 카메라 아이콘을 클릭하거나 ‘설정 > 개인정보 및 보안 > 사이트 설정 > 카메라’ 에서 엔트리 사이트의 카메라 사용을 허용해 주세요.)
-
※ 카메라를 통해 입력되는 영상은 절대로 서버에 저장되거나 외부로 공유되지 않습니다.
+
사물 인식 블록이 인식할 수 있는 사물은 아래와 같습니다.
-
비디오 감지 블록은 처음 작동할 때 마다 별도의 로딩이 필요합니다. 약 30초에서 1분 가량 로딩하면 블록을 사용할 수 있어요. 로딩 시간은 컴퓨터 사양, 네트워크 상태에 따라 달라질 수 있습니다. 새로 고침하거나 다시 접속하는 경우 로딩은 다시 진행됩니다.
-
비디오 감지 블록을 반복 블록 안에 넣으면 작품이 많이 느려질 수 있으니 주의해 주세요!
-
-
아래는 인공지능 블록에서 선택할 수 있는 인식 모델입니다.
-
-
사람 : 신체의 각 부위를 인식할 수 있는 모델입니다. 인식할 수 있는 부위는 아래와 같습니다.
-
얼굴, 목, 왼쪽 눈, 오른쪽 눈, 왼쪽 귀, 오른쪽 귀, 왼쪽 어깨, 오른쪽 어깨, 왼쪽 팔꿈치, 오른쪽 팔꿈치, 왼쪽 손목, 오른쪽 손목, 왼쪽 엉덩이, 오른쪽 엉덩이, 왼쪽 무릎, 오른쪽 무릎, 왼쪽 발목, 오른쪽 발목
-
-
-
얼굴 : 얼굴의 각 부위를 인식할 수 있는 모델입니다. 인식할 수 있는 부위는 아래와 같습니다.
-
왼쪽 눈, 오른쪽 눈, 코, 왼쪽 입꼬리, 오른쪽 입꼬리, 윗 입술, 아랫 입술
-
-
-
사물 : 미리 지정된 80개의 사물을 인식할 수 있는 모델입니다. 인식할 수 있는 사물은 아래와 같습니다.
네이버가 개발한 인공지능 음성 인식 엔진 ‘클로바 스피치’를 활용해서, 마이크로 입력하는 소리를 감지하고, 목소리를 문자로 바꿀 수 있는 블록입니다.
+
+
네이버가 개발한 인공지능 음성 인식 엔진 ‘클로바 스피치’를 활용해서, 마이크로 입력되는 음성을 인식해 문자로 바꿔 주는 블록의 모음입니다.
-
오디오 감지 블록은 인터넷 익스플로러, 사파리에서는 동작하지 않습니다. (안정적인 동작을 위해 크롬을 사용해주세요.)
-
오디오 감지 블록은 마이크 연결이 필요한 블록입니다. 데스크탑의 경우 마이크(혹은 마이크가 포함된 이어폰)을 연결해주세요.
+
음성 인식 블록은 인터넷 익스플로러, 사파리에서는 동작하지 않습니다. (안정적인 동작을 위해 크롬을 사용해주세요.)
+
음성 인식 블록은 마이크 연결이 필요한 블록입니다. 데스크탑의 경우 마이크(혹은 마이크가 포함된 이어폰)을 연결해주세요.
마이크를 연결했는데 블록이 동작하지 않거나, 음성이 제대로 입력되지 않는 경우 브라우저 설정을 변경해주세요. (크롬의 경우, 주소 표시줄 오른쪽의 카메라 아이콘을 클릭하거나 ‘설정 > 개인정보 및 보안 > 사이트 설정 > 마이크’ 에서 엔트리 사이트의 마이크 사용을 허용해 주세요.)
@@ -492,18 +468,44 @@
인공지능 블록 > AI 활용 - 오디오 감지
※ 마이크를 통해 입력되는 소리는 절대로 서버에 저장되거나 외부로 공유되지 않습니다.
1. <마이크가 연결되었는가?>
기기에 마이크가 연결되어 있다면 참으로, 아니라면 거짓으로 판단하는 블록입니다.
-
2. 음성 인식하기
-
실행 화면에 아래와 같이 목소리를 인식하는 창(음성 인식 창)이 나타납니다.
+
2. (마이크 소리 크기)
+
마이크로 입력된 소리의 크기를 가져오는 값 블록입니다.
+
3. [한국어] 음성 인식하기
+
선택한 언어로 음성 인식을 시작합니다.
+
블록이 동작하면 실행 화면에 아래와 같이 음성 인식 애니메이션이 나타납니다.
-
음성 인식 창이 열려도 작품은 일시 정지하지 않아요.
-
녹색 마이크 그림이 나타났나요? 자, 이제 말해보세요!
-
3. 음성을 문자로 바꾼 값
+
위 애니메이션이 표시되고 2초 이상 마이크에 음성이 입력되지 않았다면 인식을 종료합니다.
+
목록 상자()를 클릭해서 인식할 언어를 선택할 수 있어요.
+
+
인식 가능 언어
+
한국어, 영어, 일본어
+
+
+
+
4. (10) 초 동안 [한국어] 음성 인식하기
+
선택한 언어로 입력한 시간()동안 음성을 인식합니다.
+
블록이 동작하면 실행 화면에 아래와 같이 음성 인식 애니메이션이 나타납니다.
+
+
+
위 애니메이션이 표시되고 입력한 시간이 지나면 인식을 종료합니다.
+
목록 상자()를 클릭해서 인식할 언어를 선택할 수 있어요.
+
+
인식 가능 언어
+
한국어, 영어, 일본어
+
+
+
+
5. 인식한 음성 [보이기]
+
음성 인식 창을 실행 화면에서 나타내거나 숨깁니다.
+
+
+
위와 같이 음성 인식 창에서는 인식할 언어와 직전에 인식된 음성을 문자로 바꾼 값을 확인할 수 있습니다.
모델이 학습할 이미지를 업로드하거나 직접 촬영해서 데이터로 입력하고, 입력한 데이터를 직접 분류해서 학습시키면 나만의 인공지능 모델이 만들어집니다.
-
-
이미지 모델의 ‘촬영’ 모드는 카메라 사용이 가능한 브라우저에서만 사용할 수 있습니다. 인터넷 익스플로러에서는 카메라 사용이 불가능해 해당 모드를 사용할 수 없습니다.
-
-
이미지 모델을 선택하면 아래와 같이 이미지 모델 학습하기 창이 나타납니다.
-
-
먼저 모델의 이름부터 지어볼까요? 이름 상자를 클릭해서 모델의 이름을 정합니다.
-
① 클래스 만들기
모델 학습의 첫 단계는 데이터 입력 영역을 클래스로 채우는 것이에요. 클래스는 학습할 데이터의 묶음이고, 데이터를 분류하는 기준입니다. ‘클래스 추가하기’ 버튼을 클릭하면 클래스를 필요한 만큼 추가할 수 있어요.
-
-
-
각 클래스를 선택하면 자세한 정보와 함께 이미지를 입력할 수 있어요. 이름 상자를 클릭하면 클래스의 이름을 정할 수 있습니다. 학습 모델이 알려주는 결과 값으로 클래스 이름을 사용하니까 클래스 이름을 알아보기 쉽게 정해주는 것이 중요해요.
-
다음으로는 왼쪽의 목록 상자를 클릭하면 이미지를 어떻게 입력할 것인지 선택할 수 있어요.
-
-
업로드 : 이미지 파일을 올립니다. 파일은 10MB 이하여야 하고, jpg, png, bmp 형식(확장자)를 지원해요.
-
촬영 : 기기와 연결한 카메라로 사진을 촬영합니다. 가운데 상자에서 촬영하는 화면을 볼 수 있고, 촬영하기 버튼을 눌러 사진을 촬영할 수 있어요. 배경이 너무 화려하거나 복잡하면, 모델 학습에 영향을 줄 수 있으므로 가능하면 흰 배경에서 촬영한 이미지를 올려주세요.
-
-
-
-
이 때 각 클래스를 충분히 학습을 할 수 있도록 최소 5개 이상의 이미지를 입력해야 합니다. 입력한 이미지는 정사각형으로 잘라서 반영해요. 입력한 각 이미지는 마우스 포인터를 대거나 터치하면 나타나는 [X] 버튼을 눌러서 삭제할 수 있습니다.
-
② 학습 조건 설정하기
-
-
이렇게 2개 이상의 클래스를 만들고 나면, 학습 박스의 [모델 학습하기] 버튼을 클릭할 수 있습니다. 이 버튼을 눌러 학습을 바로 완료할 수도 있지만, ‘모델을 학습시킬 수 있습니다.’ 글씨를 클릭해서 다양한 학습 조건을 설정할 수 있어요.
-
-
-
-
세대(Epoch) 입력한 데이터 전체를 몇 번 반복하여 학습할지 정하는 부분입니다. 입력한 모든 데이터 전체를 1번 학습하는 것을 1세대라고 부르고, 세대는 에포크라고도 불러요.
-
다양한 문제(데이터)가 담긴 문제집 1권을 총 몇 번을 푸냐는 것과 같은 것이지요. 그러나 문제집을 1번만 봐서 문제를 잘 푸는 사람이 없듯이 1번만 학습하면 정확하지 않은 결과가 나올 수도 있어요. 반면 하나의 문제집만 너무 반복해서 학습하면 계속 같은 문제만 학습하다 보니 응용력이 부족해지겠죠?
-
적당히 학습해야 좋은 결과를 얻을 수 있습니다.
-
-
배치 크기(Batch Size) 입력한 데이터 전체를 얼마큼 작은 부분으로 쪼개서 학습할지 정하는 부분입니다.
-
다양한 문제(데이터)가 담긴 문제집 1권에서 숙제를 어디서부터 어디까지 할지 범위를 정하는 것과 비슷해요. 숙제의 범위가 넓으면 문제집 한 권을 빠르게 끝낼 수 있고, 숙제의 범위가 좁으면 숙제를 여러 번 해야 문제집을 다 끝낼 수 있는 것과 같습니다.
-
-
학습률(Learning Rate) 데이터를 얼마나 세세하게 학습할지를 정하는 부분입니다.
-
모델이 계속 학습하면서 가장 나은 결과를 갖는 점을 찾아간다고 상상하면, 그 때의 보폭의 크기를 정하는 것과 같아요. 보폭이 작으면 가장 나은 결과를 찾을 수는 있겠지만 시간이 오래 걸릴 것이고, 보폭이 크면 가장 나은 결과를 자꾸 지나치면서 제대로 된 결과를 찾아내지 못 할 수 있어요.
-
-
검증 데이터 비율(Validation Data Rate) 입력한 데이터 중 어느정도 비율을 학습한 모델을 검증하는 데에 사용할지 정하는 부분입니다.
-
검증 데이터 비율을 0.3로 정했다면 10개의 데이터를 입력했을 때 7개는 학습용으로, 3개는 검증용으로 사용하겠다는 뜻이 돼요.
-
-
-
③ 학습 결과 확인하기
학습 조건을 모두 설정했다면 [모델 학습하기] 버튼을 클릭해서 학습을 완료하고, 결과 박스에서 결과를 확인할 수 있습니다.
-
-
-
클래스에 이미지를 입력한 것처럼, 이미지를 업로드해서 학습 모델이 이미지를 제대로 학습했는지 확인할 수 있어요.
-
각 클래스에 얼마나 가까운지 막대 그래프로 비교해보세요!
-
-
-
이렇게 학습을 완료했다면, 학습 영역에서 [차트] 버튼을 클릭해 학습의 과정을 그래프로 확인할 수 있어요.
-
가로축은 세대(Epoch)를 나타냅니다. 세로축에서 acc는 학습 정확도를 의미하고, val_acc는 검증 정확도를 나타냅니다. 정확도가 1에 가까울수록 더 정확한 분류 결과를 얻을 수 있어요.
-
1. 학습한 모델로 분류하기
-
데이터 입력 팝업 창을 열고, 입력한 이미지를 학습한 모델로 분류합니다.
-
-
-
동시에 작품을 일시 정지해요. 오른쪽 아래 버튼을 클릭해서 창을 닫지 않고도 작품을 다시 시작할 수 있습니다.
-
오른쪽 위의 [X] 버튼을 클릭하면, 데이터를 입력하지 않고 창을 닫을 수도 있어요.
-
2. 비디오 화면을 학습한 모델로 분류 [시작하기]
-
실행 화면에 표시한 비디오 화면을 학습한 모델을 통해 실시간으로 분류합니다.
-
이 블록을 사용하기 위해서는 ‘인공지능 > 비디오 감지’의 블록을 먼저 조립해서 실행 화면에 비디오 화면을 표시해야 해요.
-
학습한 분류 모델의 실시간 분류 결과를 블록으로 확인할 수 있어요.
-
3. 분류 결과
-
입력한 데이터를 학습한 모델로 분류한 결과를 가져오는 값 블록입니다.
-
입력한 데이터와 가장 유사한 클래스의 이름을 가져와요. 만일 데이터를 입력하지 않았다면 아무 것도 가져오지 않아요.
-
4. [클래스] 의 신뢰도
-
입력한 데이터가 분류된 클래스에 대한 신뢰도를 가져오는 값 블록입니다.
-
만일 데이터를 입력하지 않았다면 0 을 가져와요.
-
목록 상자()를 클릭하면 신뢰도를 가져올 클래스를 선택할 수 있어요.
-
5. <분류 결과가 [클래스] 인가?>
-
입력한 데이터가 선택한 클래스와 가장 비슷하다면 참, 아니라면 거짓으로 판단하는 블록입니다.
-
만일 데이터를 입력하지 않았다면 항상 거짓을 가져와요.
-
목록 상자()를 클릭하면 결과를 확인할 클래스를 선택할 수 있어요.
+
테이블을 불러오거나 새로 만드는 방법, 불러온 테이블을 편집하고 차트를 추가하는 방법 등은 ‘테이블 불러오기 팝업‘ 문서를 참고해 주세요.
+
1. 테이블 [테이블] 에 [행] 추가하기
+
테이블에 행과 열을 추가합니다.
+
추가 되는 행과 열은 해당 테이블의 맨 마지막 행과 열이 됩니다.
+
목록 상자()를 클릭해서 테이블과 행/열을 선택할 수 있어요.
+
2. 테이블 [테이블](2) 번째에 [행] 추가하기
+
값 블록()에 입력한 위치에 행 또는 열을 추가합니다.
+
목록 상자()를 클릭해서 테이블과 행/열을 선택할 수 있어요.
+
3. 테이블 [테이블](2) 번째 [행] 삭제하기
+
값 블록()에 입력한 위치의 행 또는 열을 삭제합니다.
+
목록 상자()를 클릭해서 테이블과 행/열을 선택할 수 있어요.
+
4. 테이블 [테이블](2) 번째 행의 ([속성]) 을(를) (10) (으)로 바꾸기
+
첫번째 값 블록()에 입력한 행과 선택한 속성(열)에 해당하는 셀의 내용을 두번째 값 블록()에 입력한 내용으로 변경합니다.
+
목록 상자()를 클릭해서 테이블과 속성을 선택할 수 있어요.
+
5. 테이블 [테이블] 을(를) 현재 상태로 남기기
+
6. (테이블 [테이블] 의 [행] 개수)
+
테이블에서 행 또는 열의 개수를 가져오는 값 블록입니다.
+
목록 상자()를 클릭해서 테이블과 행/열을 선택할 수 있어요.
+
7. (테이블 [테이블](2) 번째 행의 ([속성]) 값)
+
값 블록()에서 입력한 행과 선택한 속성(열)에 해당하는 셀의 내용을 가져오는 값 블록입니다.
+
목록 상자()를 클릭해서 테이블과 속성을 선택할 수 있어요.
+
8. (테이블 [테이블] 마지막 행의 ([속성]) 값)
+
테이블의 마지막 행과 선택한 속성(열)에 해당하는 셀의 내용을 가져오는 값 블록입니다.
+
목록 상자()를 클릭해서 테이블과 속성을 선택할 수 있어요.
+
9. (테이블 [테이블]([속성]) 의 [합])
+
테이블에서 선택한 속성(열)의 요약 데이터를 가져오는 값 블록입니다.
+
목록 상자()를 클릭해서 테이블과 속성의 기초 통계량을 선택할 수 있어요.
+
기초 통계량으로 합/최대/최소/평균/표준편차를 선택할 수 있어요.
+
10. 테이블 [테이블] 창 열기
+
선택한 테이블의 팝업 창을 엽니다.
+
테이블 팝업 창이 열려도 작품은 정지 되지 않아요.
+
목록 상자()를 클릭해서 테이블을 선택할 수 있어요.
+
11. 테이블 [테이블] 창을 (4)초 동안 열기
+
선택한 테이블의 팝업 창을 입력한 시간()동안 엽니다.
+
테이블 팝업 창이 열려도 작품은 정지 되지 않아요.
+
목록 상자()를 클릭해서 테이블을 선택할 수 있어요.
+
12. 테이블 [테이블] 의 [차트] 창 열기
+
테이블에서 선택한 차트의 팝업 창을 엽니다.
+
차트 팝업 창이 열려도 작품은 정지 되지 않아요.
+
목록 상자()를 클릭해서 테이블과 차트를 각각 선택할 수 있어요.
+
13. 테이블 차트 창 닫기
+
지금 열려 있는 테이블의 차트 팝업 창을 닫습니다.
+
14. (테이블 [테이블]([속성]) 과(와) ([속성]) 의 상관계수)
+
테이블에서 선택한 두 속성 사이의 상관계수를 구하는 값 블록입니다.
+
상관계수가 1에 가까울 수록 강한 양의 선형 상관관계를, -1에 가까울 수록 강한 음의 선형 상관관계를 갖습니다.