기술 또는 기본 분석

마지막 업데이트: 2022년 7월 2일 | 0개 댓글
  • 네이버 블로그 공유하기
  • 네이버 밴드에 공유하기
  • 페이스북 공유하기
  • 트위터 공유하기
  • 카카오스토리 공유하기
하둡이 발명되기 전에는 현대식 스토리지와 컴퓨팅 시스템의 기저를 이루는 기술이 비교적 기본적이어서, 기업에서는 대부분 "스몰 데이터" 분석만 가능한 한계가 있었습니다. 다만 이렇게 비교적 기본적인 형태의 분석도 어려울 수 있습니다. 특히 새로운 데이터 소스를 통합하는 경우 분석이 쉽지 않습니다. 기존 데이터 분석의 경우, 주로 관계형 데이터베이스(예: SQL 데이터베이스)를 사용하고 구조적 데이터 테이블로 구성되어 있어 원시 데이터를 한 바이트도 빠짐없이 특정 방식으로 형식을 지정해야 분석을 위해 데이터베이스에 수집할 수 있습니다. 이 프로세스에는 보통 시간이 오래 걸리는데, 이를 통칭 추출, 변환, 로드(extract, transform, load 즉 ETL)라고 하며 새 데이터 소스마다 각각 이 과정을 따로 거쳐야 합니다. 3부분으로 나뉜 이 프로세스 겸 접근법의 주된 문제점은 엄청난 시간이 걸리고 고도로 노동 집약적이라서, 경우에 따라서는 데이터 사이언티스트와 엔지니어가 구현이나 변경하는 데 최장 18개월까지 걸릴 수도 있다는 점입니다. 다만 일단 데이터가 데이터베이스 내에 수집되기만 하면 대부분 데이터 애널리스트가 충분히 손쉽게 쿼리하고 분석할 수 있습니다. 그러다 인터넷, 기술 또는 기본 분석 전자상거래, 소셜 미디어, 모바일 디바이스, 마케팅 자동화, 사물 인터넷(IoT) 디바이스 등이 출현하면서 원시 데이터의 크기, 볼륨과 복잡성이 너무 늘어나 일반적으로 업무를 처리하면서 이를 분석할 수 있는 기관은 손에 꼽을 정도가 되었습니다.

고장 분석

FA(고장 분석)에는 TI 제품의 제조 또는 애플리케이션에서 발생할 수 있는 문제를 파악하기 위해 방대한 분석 방법 및 기술이 동원됩니다. 당사의 FA 엔지니어 또는 분석가는 물리, 전기, 화학 및 기계 공학에 대한 깊은 지식을 바탕으로 설계, 프로세스, 조립 및 테스트, 애플리케이션에 능숙하므로 복잡한 프로세스를 처리할 수 ​​있습니다.

TI는 반도체 및 패키징 분석을 통해 문제를 파악하고 해결할 수 있는 첨단 기기와 엔지니어링 전문 지식을 갖추고 있습니다. 전 세계의 TI 사이트에서 고객 반환, 신뢰성 불량, 제조 폴아웃 및 설계 지원과 관련하여 분석 실험실의 지원을 받을 수 있습니다. 이러한 실험실은 우수한 단위 분석, 공정 특성화, 파괴 물리 분석 및 구조 분석에 사용되는 다양한 툴을 갖추고 있습니다. FA 사이트는 자체적으로 운영되지만 전 세계의 TI 사이트와 파트너십을 맺고 정보와 리소스를 공유합니다.

고장 분석 프로세스

TI의 FA 프로세스에서는 간결하면서도 정교한 분석 측정 시스템, 벤치톱 장비 및 다양한 기타 기술을 통해 전기 및 물리적 증거를 발견하여 고장 원인을 명확하게 파악합니다. 적절한 장비와 작업 절차를 사용하여 고장 원인의 위치를 확인하고, 다이에서 분리하고, 물리적으로 특성화합니다. 그런 다음 FA 팀에서 기술 또는 기본 분석 다른 엔지니어링 부서(제품, 테스트, 설계, 조립 및 공정)와 협력하여 분석을 진행합니다. 프로세스를 지원하는 내부 및 외부 연락 담당자에게 진행 과정, 결과 및 기술 또는 기본 분석 결론을 전달하여 고장 원인을 제한 또는 제거하는 변경 작업을 구현합니다.

정보 검토, 고장 확인

고객이 보고하는 고장 문서는 효율적인 FA에 매우 중요하며, 장치를 반환하기 전의 장치 내역, 사용법, 오류 특성 및 분석 결과에 대한 명확하고 상세한 설명을 제공하는 TI 고객 반품 프로세스를 거쳐야 합니다. 이 정보는 조사를 돕고 보다 신속하게 문제를 해결하는 데 도움이 됩니다.

고객이 고장 보고서를 제출할 때 포함해야 하는 최소 배경 정보는 다음과 같습니다.

  1. TI에서 수령하기 전에 조치한 부품 기술 또는 기본 분석 취급 방법. 부품을 제거 및 취급할 때에는 전기 또는 물리적 손상이 발생하지 않고 테스트 용이성이 유지되도록 예방 조치를 취해야 합니다.
  2. 고객 사이트에서의 고장 내역 및 고장률. 새 제품입니까 아니면 이 기간 동안 어떤 변화가 있었습니까?
  3. 고장이 발생한 애플리케이션 상태. 고객 회로도를 TI에 보내주실 수 있습니까?
  4. 애플리케이션의 고장 모드 및 반환된 구성 요소를 연결하는 방법.

FA 팀에서는 TI의 과거 데이터베이스를 검토하여 추가 의견 및 지침을 제공합니다. 모든 정보를 검토한 후 초기 분석 전략이 수립됩니다. 후속 분석 단계를 진행하려면 보고된 고장 모드가 확인되어야 합니다. 보고된 고장 모드와의 상관 관계가 잘 파악되면 이후에 모든 정보를 쉽게 찾을 수 있습니다. 커브 트레이서 또는 애플리케이션 기반 벤치 테스터 같은 벤치 테스트 장비와 생산 수준 자동 테스트 장비('ATE')가 전기 특성화에 사용될 수 있습니다.

비파괴 테스트

FA는 본질적으로 리버스 엔지니어링이며 반환된 제품이 파괴될 수 있습니다. 패키지가 적어도 부분적으로 파괴되어 다이가 드러나게 되므로 비파괴 기술을 먼저 수행하여 패키지 또는 조립 관련 메커니즘을 관찰합니다. TI에서 사용하는 가장 일반적인 기술은 음향 현미경과 방사선(엑스레이) 검사로 내부 조립 또는 몰딩 불량을 살펴보는 것입니다.

내부 검사

TI에서 내부 광학 검사를 수행하여 명백한 조립 불량 또는 웨이퍼 제조 문제를 검사합니다. 또한 고장 모드가 바뀌었는지 확인하기 위해 재테스트가 실시됩니다.

전역 격리

TI 내부 검사를 통해 명백한 고장 메커니즘을 밝혀내지 못하는 경우가 매우 많습니다. 기술 및 테스트 용이성 수준에 따라 FA 실험실에서 하나 이상의 기술을 활용하여 고장 사이트를 격리합니다. 이러한 기술은 대부분 열 발산 또는 광자 방출의 경우처럼 고장 사이트의 속성을 관찰하기 위해 시도됩니다.

국부 격리

고장 사이트를 다이의 블록 또는 단일 노드에 부분적으로 격리하는 방법은 일반적이지만 매우 중요한 단계입니다. 하지만 시간이 오래 걸릴 수 있습니다. 대부분의 경우 방대한 내부 검사가 필요하며 일반적으로 공정을 역순으로 한 층씩 진행하는 반복 기술 또는 기본 분석 작업이 수행됩니다. 역공정은 다이를 한 번에 한 층씩 제거하는 과정으로, 기본 구조를 밝히기 위해 습식 화학 반응, 건식 플라즈마 에칭 및 기계적 연마 기술이 동원될 수 있습니다. 공정의 파괴적 성질과 중요 정보의 손실 가능성 때문에 적절한 기술이 필수입니다. 공정 과정에서 FA 분석가는 조사 및 기타 특별 기술을 수행하여 잠재적 이상 현상을 파악합니다. 조사의 관점에서 부품 및 회로를 격리하기 위해 레이아웃/회로도 탐색 툴과 FIB(집속 이온 빔)가 사용됩니다.

고장 사이트 분석

잠재적 사이트가 확인 또는 발견되면 문서화 및 분석이 수행됩니다. 형태 또는 물질 조성이 필요한지 여부에 따라 추가적인 분석 기술이 사용됩니다.

결론 보고

분석이 완료되면 작업 결과는 물리적 이상과 고장 모드의 관계에 대해 설명하는 서면 보고서로 문서화되며, 타당성이 인정된다면 제조 사이트에서 근본 원인을 분석할 수 있도록 충분한 문서가 포함됩니다.

이 연구의 목적은 현재 적용되고 있는 교원 자격증 표시과목 ‘기술’의 기본이수과목 또는 분야의 문제점을 파악하고 개선안을 도출하기 위한 것이었다. 이를 위하여 표시과목 ‘기술’의 기본이수과목(또는 분야)의 변천 내용을확인하고, 기본이수과목(또는 분야) 가운데 표시과목 ‘기술’과의 관련성을 분석하였다. 이와 함께 현재 적용되고있는 2015 개정 실과(기술․가정)과 ‘기술의 세계’ 분야의 교육과정의 내용과 비교 분석하였다. 이 연구에서 밝혀진 교사 자격증 표시과목 ‘기술’의 기본이수과목(또는 분야)의 분석 결과는 다음과 같다. 첫째, 현행 2015 개정 ‘기술․가정’과 기술 분야 교육과정과 관련이 없거나 종래의 공업 교육에 속하는 과목으로 다수 존재하였다. 둘째로, 현행 ‘기술․가정’과 기술 분야 교육과정 내용과 관련이 없고 미래에 활용되기 어려운 내용을 다루는과목이 기술 또는 기본 분석 존재하였다. 셋째, 현행 ‘기술․가정’과 기술 분야의 기술 활용 영역과 관련된 기본이수분야 또는 과목이 존재하지 않는다는문제점을 발견했다. 이 연구에서는 이러한 분석 결과를 바탕으로 ‘기술’ 교사 자격종별․표시과목별 기본이수과목(또는 분야)에 대한 대안으로 7개의 기본이수분야로 이루어진 개선안을 개발하였다. 앞으로 개선된 ‘기술’ 교사 자격종별․표시과목별 기본이수과목(또는 분야)를 통하여 직전 교사들이 현행화된 교육과정에 따라 기술 교육의 목표를 효과적으로 달성할 수 있는 수업을 진행할 수 있는 능력 함양에 이바지할 수 있을 것이다.

The purpose of this study was to identify the problems of the basic courses or fields of the currently applied teacher certificate labeling subject “technology” and to derive improvement plans. To this end, the change of the basic courses (or fields) of the marked subject ‘technology’ was checked, and the relevance to the marked subject ‘technology’ among the basic courses (or fields) was analyzed. In addition, it compared and analyzed the contents of the curriculum in the field of ‘Technology World’ and the 2015 revised Practical Arts (Technology/Home) currently applied. The analysis results of the basic courses (or fields) of the “기술 또는 기본 분석 technology” subject to indicate teacher qualifications in this study are as follows. First, there were many subjects that were not related to the current 2015 revised “Technologyㆍ Home” and technical curriculum or belong to the conventional industrial education. Second, there were subjects dealing with contents that were not related to the current “technology/family” and technical curriculum contents and were difficult to use in the future. Third, we found the problem that there is no basic completion field or subject related to the current “technology/home” and technology application areas in the technology field. In this study, based on the results of this analysis, an improvement plan consisting of seven basic courses was developed as an alternative to the basic courses (or fields) for each ‘technical’ teacher qualification type and mark. Developing the ability to conduct classes that can effectively achieve the goal of technical education in accordance with the current curriculum through the improved ‘technical’ teacher qualification type and basic courses (or fields) for each marked subject. Will be able to contribute to.

로그 분석이란?

로그 분석은 네트워크, 운영 체제, 컴퓨터에서 IT 에코시스템에 포착되는 이벤트에서 수집된 정보입니다.

로그 분석

로그 분석을 통해 사용자 행동의 패턴 또는 예외를 파악하고, 이슈를 식별하며, 보안 이슈를 확인할 수 있습니다.

로그 분석을 통해 애플리케이션 전반의 성능, 동작, 예외를 적극적으로 모니터링할 수 있습니다. 선제적인 모니터링을 통해 경보를 트리거하지 않았거나 특이한 설명이 있는 이슈를 식별할 수 있습니다. 경보를 트리거하는지 여부와 상관없이 로그 데이터에 나타납니다.

문제 해결

집계되어 구조화된 데이터를 통해 모든 수준의 문제를 해결할 수 있습니다. 로그 분석은 표준 활동의 기준선을 제공하여 기준선에서 벗어나는 데이터가 발생하는 이유를 파악할 수 있습니다.

IT 팀은 분석 용이성을 위해 정보의 통합 뷰를 제공하는 간략한 대시보드를 사용하여 로그와 메트릭에 대한 가시성을 확보합니다. 대시보드를 통해 로그 분석의 데이터를 사용하여 KPI, SLA, 기타 통계를 강조할 수 기술 또는 기본 분석 있습니다.

트렌드 데이터

로그 분석을 통해 트렌드 데이터와 성장률에 대한 통찰력을 활용할 수 있습니다. 히스토그램을 통해 성장률을 시각화하여 수명주기 관리와 용량 계획에 활용할 수 있습니다.기술 또는 기본 분석

로그 분석의 작동 원리

로그 분석을 위한 소프트웨어는 보안 위반, 앱 설치, 시스템 설정/시작 운영과 같은 IT 에코시스템 전반의 이벤트로부터 정보를 수집합니다.

로그 분석 수행 방법

데이터 정리

활용 가능하고 정확한 데이터를 사용하는 것이 중요합니다. 다음의 경우 데이터가 손상될 수 있습니다.

  • 저장소 디스크가 충돌하는 경우
  • 애플리케이션이 정상적으로 종료되지 않은 경우
  • 시스템이 바이러스에 감염된 경우
  • 입력/출력 구성 이슈가 있는 경우

데이터 구조화

데이터는 다양한 소스로부터 수집되기 때문에 다양한 명명 규칙을 사용하는 경우가 많습니다. 다양한 소스에서 수집한 데이터의 상관관계를 분석하고 용어를 표준화하여 분석 시 혼동과 오류를 줄여야 합니다.

데이터 분석

데이터는 수집, 정리, 구조화를 거쳐야만 검토가 가능합니다. 프로세스, 데이터의 의도된 사용, 데이터 세트의 크기에 따라 분석 방식이 다양합니다. 옵션은 다음과 같습니다.

데이터 분석

통계학이란 데이터를 수집, 요약, 분석하고 결과를 해석할 수 있는 원리와 방법을 제시하는 학문입니다. 통계학을 사용하여 데이터를 설명하고 추론할 수 있습니다. 그런 다음 추론을 사용하여 공정과 제품을 개선할 수 있습니다.

Minitab은 회귀 분석, 분산 분석, 품질 도구, 시계열 등 많은 통계 분석을 제공합니다. 빌트-인 그래프는 데이터를 시각화하고 결과를 검증하는 데 도움이 됩니다. Minitab을 이용하여 통계량 및 진단 측도를 표시하고 저장할 수도 있습니다.

이 장에서는 지연 주문과 이월 주문의 수를 평가하고 세 물류 센터 간의 배송 시간 차이가 통계적으로 유의한지 여부를 검정합니다.

데이터 요약

기술 통계량은 데이터의 중요한 특징을 요약하고 기술합니다. 각 물류 센터에서 정시에 배송한 도서 주문 수, 지연된 도서 주문 수, 초기에 이월 주문된 도서 주문 수를 확인하려면 기술 통계량 표시 를 사용하십시오.

기술 통계량 표시

  1. 표본 데이터배송데이터.MTW을(를) 엽니다.
  2. 통계분석 > 기초 통계 > 기술 통계량 표시 을 선택합니다.
  3. 변수 에 일 수 를 입력합니다.
  4. 기준 변수(옵션) 에 센터 상태 를 입력합니다.

기술 통계량: 일 수

센터 = 중부에 대한 결과

통계량 전체 평균의 변수 상태 카운트 평균 표준 오차 표준 편차 최소값 최대값 일 수 이월 주문 6 * * * * * 지연 6 6.431 0.157 0.385 6.078 7.070 정각 93 3.826 0.119 1.149 1.267 5.983

센터 = 동부에 대한 결과

통계량 전체 평균의 변수 상태 카운트 평균 표준 오차 표준 편차 최소값 최대값 일 수 이월 주문 8 * * * * * 지연 9 6.678 0.180 0.541 6.254 7.748 정각 92 4.234 0.112 1.077 1.860 5.953

센터 = 서부에 대한 결과

통계량 전체 평균의 변수 상태 카운트 평균 표준 오차 표준 편차 최소값 최대값 일 수 이월 주문 3 * * * * * 정각 102 2.981 0.108 1.090 0.871 5.681

세션 창에는 Microsoft Word 및 Microsoft PowerPoint로 보낼 수 있는 텍스트 출력이 표시됩니다. PowerPoint로 텍스트 출력을 보내는 데 대한 자세한 내용은 Minitab의 결과 표시에서 확인하십시오.

결과 해석

세션 창에는 각 물류 센터의 결과가 개별적으로 표시됩니다. 각 물류 센터 결과의 전체 카운트 열에서 이월 주문, 지연 배송된 주문 및 일정에 맞게 배송된 주문 수를 확인할 수 있습니다.

  • 동부 물류 센터의 이월 주문 수(8)와 지연 주문 수(9)가 가장 많습니다.
  • 그 다음으로 중부 물류 센터의 이월 주문 수(6)와 지연 주문 수(6)가 많습니다.
  • 서부 물류 센터의 경우 이월 주문 수(3)가 가장 적고 지연 배송된 주문은 없습니다.

세션 창 결과에는 각 물류 센터의 배송 시간(일수)의 평균, 평균의 표준오차, 표준 편차, 최소값, 최대값 등이 있습니다. 이월 주문의 경우에는 이런 통계량이 존재하지 않습니다.

두 개 이상의 평균 비교

통계 분석에서 가장 일반적으로 사용되는 방법은 가설 검정입니다. Minitab에서는 t 검정과 분산 분석 등 다양한 가설 검정을 제공합니다. 일반적으로 가설 검정을 수행하는 경우 초기 주장을 참이라고 가정한 후 표본 데이터를 사용하여 그 주장을 검정합니다.

가설 검정에는 두 개의 가설(주장)인 귀무 가설(H0) 및 대립 가설(H1)이 포함됩니다. 귀무 가설은 초기 주장이며, 대부분 이전에 수행된 연구 또는 상식을 바탕으로 지정됩니다. 대립 가설은 검정을 수행하는 사람이 참일 수 있다고 믿는 주장입니다.

앞 장의 그래픽 분석과 위의 기술 통계량 분석 결과에 따라 각 물류 센터에 대한 평균 배송일 수의 차이가 통계적으로 유의할 것으로 예상합니다. 이를 확인하기 위해 일원 분산 분석을 수행하여 두 개 이상의 평균이 동일한지 여부를 검정합니다. 또한 Tukey의 다중 비교 검정을 수행하여 어떤 물류 센터의 평균이 다른 지도 확인할 수 있습니다. 일원 분산 분석의 경우 배송일 수가 반응이고 물류 센터가 요인입니다.

빅데이터 분석

빅데이터 분석 전의 ETL

하둡이 발명되기 전에는 현대식 스토리지와 컴퓨팅 시스템의 기저를 이루는 기술이 비교적 기본적이어서, 기업에서는 대부분 "스몰 데이터" 분석만 가능한 한계가 있었습니다. 다만 이렇게 비교적 기본적인 형태의 분석도 어려울 수 있습니다. 특히 새로운 데이터 소스를 통합하는 경우 분석이 쉽지 않습니다. 기존 데이터 분석의 경우, 주로 관계형 데이터베이스(예: SQL 데이터베이스)를 사용하고 구조적 데이터 테이블로 구성되어 있어 원시 데이터를 한 바이트도 빠짐없이 특정 기술 또는 기본 분석 방식으로 형식을 지정해야 분석을 위해 데이터베이스에 수집할 수 있습니다. 이 프로세스에는 보통 시간이 오래 걸리는데, 이를 통칭 추출, 변환, 로드(extract, transform, load 즉 ETL)라고 하며 새 데이터 소스마다 각각 이 과정을 따로 거쳐야 합니다. 3부분으로 나뉜 이 프로세스 겸 접근법의 주된 문제점은 엄청난 시간이 걸리고 고도로 노동 집약적이라서, 경우에 따라서는 데이터 사이언티스트와 엔지니어가 구현이나 변경하는 데 최장 18개월까지 걸릴 수도 있다는 점입니다. 다만 일단 데이터가 데이터베이스 내에 수집되기만 하면 대부분 데이터 애널리스트가 충분히 손쉽게 쿼리하고 분석할 수 있습니다. 그러다 인터넷, 전자상거래, 소셜 미디어, 모바일 디바이스, 마케팅 자동화, 사물 인터넷(IoT) 디바이스 등이 출현하면서 원시 데이터의 크기, 볼륨과 복잡성이 너무 늘어나 일반적으로 업무를 처리하면서 이를 분석할 수 있는 기관은 손에 꼽을 정도가 되었습니다.

빅데이터 분석이란 무엇입니까?

빅데이터 분석은 보통 전자상거래, 모바일 디바이스, 소셜 미디어나 사물 인터넷(IoT)과 같은 다양한 출처에서 생성된 대규모의 다양한 데이터 세트(즉 빅데이터)를 검사하는 복잡한 프로세스를 말합니다. 여기에는 다양한 데이터 소스를 통합하고 비구조적 데이터를 구조적 데이터로 변환하며, 네트워크 전체에 데이터 처리를 널리 퍼뜨리는 전문 툴과 기법을 사용해 데이터에서 인사이트를 생성하는 작업이 포함됩니다. 세상에 존재하는 디지털 데이터의 양은 빠른 속도로 늘어나고 있으며, 2년마다 두 배씩 증가하는 양상입니다. 빅데이터 분석은 이런 모든 데이터 소스를 관리, 분석하기 위해 색다른 방식을 제안한 솔루션입니다. 기존 데이터 분석 원칙이 여전히 그대로 적용되기는 하지만, 빅데이터 분석의 규모와 복잡성 때문에 여기서 다루는 페타바이트급 구조적, 비구조적 데이터를 저장하고 처리하려면 기술 또는 기본 분석 새로운 방식을 개발해야 했습니다. 더 빠른 속도, 더 뛰어난 스토리지 용량을 바라는 수요 덕분에 기술적 진공이 생겼지만 이는 금세 새로운 스토리지 방식으로 채워졌습니다. 데이터 웨어하우스와 데이터 레이크, NoSQL과 같은 비관계형 데이터베이스는 물론 오픈 소스 Apache Hadoop, Spark 및 Hive와 같은 데이터 처리 및 데이터 관리 기술이 대표적인 예입니다. 빅데이터 분석은 고급 분석 기법을 활용하여 다양한 소스에서 생성한 구조적, 반구조적, 비구조적 데이터 등 정말 큰 빅데이터를 분석하며, 데이터의 크기도 테라바이트 단위에서 제타바이트 단위까지 다양합니다.


0 개 댓글

답장을 남겨주세요