신종 코로나바이러스와 진단키트


 
지난 COVID-19에 관한 몇 가지 포스팅에 이어서 오늘은 신종 코로나바이러스(COVID-19) 진단키트에 대하여 알아볼까 합니다.
 
최근 한국의 바이오 기업이 제조, 생산하는 진단키트들의 높은 정확도와 세계적 찬사를 받으며 그 존재감이 날로 커지고 있는데요, 이탈리아, 스페인, 프랑스, 독일과 같은 유럽 국가를 비롯하여 미국에까지 수출하고 있습니다. 특히 미국 수출건의 경우 까다롭기로 유명한 FDA까지 긴급사용승인을 받아 한국의 진단키트에 대한 대내외적 인지도가 어느 정도인지 가늠해볼 수 있습니다. 이렇듯, 진단키트가 무엇이기에 이토록 한국의 진단키트들이 찬사를 받는지, 신종 코로나바이러스에 진단키트가 중요한 이유가 무엇인지 해당 포스트를 통해 유익한 정보 많이 얻어가시길 바랍니다!




최근 신종 코로나바이러스(SARS-CoV-2)로 인해 많은 사람들이 진단키트에 대한 관심이 높아졌습니다. 진단키트는 각종 질병, 임신 여부, 건강 상태, 친자 확인 등 여러 분야에서 각 목적에 맞게 필요한 시약 및 도구 등을 포함한 생화학 실험 도구를 뜻합니다. 신종 코로나바이러스(SARS-CoV-2)가 전 세계 보건의료를 극심하게 뒤흔들고 있는 상황에서 한국은 진단키트를 통해서 신속 정확하게 진단하여 대처하고 있습니다.



특히 '방역 한류'라 불릴 정도로 국내에 여러 업체들(씨젠, 솔젠트, 시선바이오 등)에서 제작한 진단키트를 전 세계 곳곳에서 구하려고 힘쓰는 상황입니다. 전 세계에서도 여러 업체가 진단키트를 생산하나 각국의 법적 규제, 생산 라인, 기술 등의 문제로 국내산 진단키트만큼 생산량도 많지 않고 정확도도 낮은 경우가 많습니다. 진단키트에 활용되는 여러 가지 기술은 배양법, 항원-항체 반응, qRT-PCR 등이 있으며 현재 승인이 된 방법은 항원-항체 반응, qRT-PCR입니다.


 



 

 


일반적으로, 코로나바이러스는 전염성은 강하지만 병원성이나 치사율은 낮은 바이러스입니다. 그러나 신종 코로나바이러스(SARS-CoV-2)는 전염성도 강하면서 제법 치명적인 병원성을 가지는 특이 변종입니다. SARS-CoV-2의 WHO 공식 치사율은 4월 현재 약 6.7%입니다.



코로나바이러스 중에서 치사율이 1%를 넘기는 사례는 SARS(치사율 9.6%), MERS(치사율 38%) 정도를 제외하면 거의 없습니다. MERS와 SAS가 치사율이 더 높아 보이지만 SARS-CoV-2는 현재 진행형이며, 언제까지 진행될지 예상할 수 없다는 문제가 있습니다. 신종 코로나바이러스에 대한 백신 및 치료제가 개발되지 않은 상황에선 감염자를 빠르고 정확하게 판별해서 격리하고 치료하는 게 최선의 방법입니다.




진단키트를 제작하기 위해선 목표하는 질병을 일으키는 세균이나 바이러스 등에서 타 병원체와는 다른 유전자 변이를 찾아내야 합니다. 이를 위해선 생물정보 기술을 활용하여 유전자 변이를 더 쉽게 찾아낼 수 있습니다.





인체 내에 바이러스가 들어올 경우 IgM·G(Immunoglobulin M·G) 항체가 형성됩니다. 신종 코로나바이러스(SARS-CoV-2)가 몸속에 소량이라도 들어오면 이를 방어하기 위해 IgM·G 항체가 생성됩니다. 이렇게 생성된 항체와 결합하는 항원을 통해서 진단할 수 있습니다. 물론 신종 코로나바이러스(SARS-CoV-2)만 특이적으로 검사할 수는 없으나 의심 환자에 대한 광범위한 검사를 진행하여 1차 선별이 가능합니다. 이후 정밀 검사(qRT-PCR등)를 통해 최종 감염 여부를 확인합니다. 1차 선별을 유전자 방식으로만 진행하게 되면 격리된 검사시설과 고가의 장비, 시약, 검사를 수행할 전문 임상 병리사 등이 필요하므로 의심 환자에 대한 광범위한 검사가 어려운 점을 보완할 수 있는 장점이 있습니다.





qRT-PCR은 PCR 증폭 산물을 실시간으로 모니터링하는 해석 방법으로, 기존의 PCR 방법으로는 측정하기 어려운 정확한 정량이 가능합니다. 또한, PCR 원리를 기본으로 하고 있으므로 검출감도가 높고, mRNA 발현 해석이나 SNPs typing 등의 유전자 해석에 요구되는 필수 기술입니다. qRT-PCR의 실험 조작은 비교적 간단하며 종래의 PCR법과 거의 유사하다고 생각하면 됩니다. 현재 qRT-PCR을 기반으로 하는 진단키트에 경우 의삼환자에서 객담(가래)을 추출해 코로나19 바이러스가 있는지를 검사하는 방식으로 정확하게 검출할 수 있습니다. 특히 1~2일 걸리는 배양법에 비해 6시간 가량이면 결과를 도출할 수 있어 신속한 진단에 크게 이바지한 방법입니다.


신종 코로나바이러스(SARS-CoV-2)를 특정할 수 있는 유전자 N, E, S, RdRp, Orf1a, Orf1ab 중에서 최소한 두개 이상의 유전자를 증폭하는 Specific primer를 통해서 감염의 여부를 체크할 수 있습니다.



코로나19 환자에게서 위에 나열된 코로나19 바이러스의 모든 유전자를 완전히 다 검출해서 완벽하게 대조하면 좋겠지만, 그건 오래 걸리고 비용면에서도 효율성이 떨어지기 때문입니다. 그래서 국가마다 검출 유전자는 조금씩 다르지만, 보통은 가장 변이를 덜 일으킬 것으로 보이는 유전자를 최소 2개 이상 검사해서 둘 다 '양성' 반응이 나타나는지를 보고 코로나19 감염 여부를 판단하고 있는 겁니다.
 



신종 코로나바이러스(SARS-CoV-2) 감염증의 사례로 알 수 있듯이 진단키트를 활용하여 빠르게 감염자를 선별하고 격리하여 2차 피해를 예방하고 조기에 치료하는 방법이 제일 좋은 방법입니다. 또한, 병원체 (바이러스, 세균 등)은 빠르게 변이되고 돌연변이를 통해 또 다른 질병을 일으킬 수 있으므로 이에 우리는 생물정보 기술을 통해 신속하게 병원체를 연구 및 분석하여 기존의 병원체와의 차이점을 찾아내고 진단키트로 제작하여 대처해야 합니다.
현재 (주)인실리코젠에서는 신종 코로나바이러스(SARS-CoV-2) 연구를 포함한 감염병 연구를 위해 생물정보 솔루션인 CLC Genomics ProSuite(CLC Genomics Workbench를 포함한 바이러스 및 미생물 NGS 분석 패키지)와 Ingenuity Pathway Analysis(IPA, 유전자 네트워크 분석 솔루션)의 단기 라이선스를 지원하고 있으니 신청하시면 6월 15일까지 사용해보실 수 있습니다.


COVID-19 연구를 위한 단기 라이선스 신청하기


하루 속히 신종 코로나바이러스(SARS-CoV-2) 감염 확산이 종식되길 바라며, 앞으로 이러한 생물정보 솔루션들의 활용을 통해서 바이러스 및 병원체 발생을 조기에 감지하고 제어하는 공중 보건의 보호에 도움이 되길 바랍니다.

Posted by 人Co

2020/04/26 16:36 2020/04/26 16:36
Response
No Trackback , No Comment
RSS :
https://www.insilicogen.com/blog/rss/response/343



지난해 12월부터 지금까지 전 세계 보건의료를 극심하게 뒤흔들고 있는 SARS-CoV-2의 유전체는 29.8kb 염기서열로 구성되어 있으며 27개의 단백질을 코딩하는 14개의 ORF(Open Reading Frame)를 가지고 있습니다.

이번 SARS-CoV-2 관련한 환자 유래 바이러스 유전체 시퀀싱 데이터는 GISAID(https://www.gisaid.org/) 사이트에서 모두 공개하고 있습니다. 데이터베이스 내 유전체 계통분석 결과를 보면 바이러스 변이가 얼마나 빠르게 생겨나고 어떻게 확산되고 있는지 패턴을 확인할 수 있습니다.

NGS 장비를 활용한 유전체 해독 기술이 지속적으로 발전하면서 이번 COVID-19 사태에서는 메르스 때와는 다르게 감염 환자가 발생하고 늦어도 일주일 안에 유전체 정보가 해독되어 공개되는 것을 볼 수 있습니다.



중국 현장에서는 초소형 유전체 해독 장비인 MinION(Oxford Nanopore)을 활용해 환자 유래 SARS-CoV-2 유전체를 현장에서 24시간 내 시퀀싱 하는 데 활용하고 있으며, 중국 전역에서 발생한 다양한 이 바이러스 유전체 데이터 수백 개가 동시에 계속해서 공개되고 있습니다.



[출처] NANOPORE사의 MinION

MinION을 사용한 시퀀싱은 SARS-CoV-2의 진화를 추적하기 위한 빠르고 효율적인 방법입니다. 실험실 장비에 비용적으로 거의 투자하지 않고 몇 시간 안에 시퀀싱을 수행할 수 있지만, 샘플의 품질이 낮고 다른 출처의 RNA로 오염된 경우가 많기에 생물정보 분석이 굉장히 중요합니다.

이번 블로그에서는 metatranscriptomics 데이터의 한계를 극복하고, CLC Genomics Workbench를 사용하여 Oxford Nanopore MinION 장비에서 시퀀싱된 데이터를 최대한 활용할 수 있는 방법을 안내하도록 하겠습니다.

분석할 데이터는 중국 우한의 해산물 시장에서 처음 폐렴이 발생하였을 때의 샘플을 MinION 장비로 시퀀싱한 메타전사체 케이스입니다[Chan et al., 2020].

환자로부터 가래와 인후에서 면봉을 사용하여 기관지 폐포를 통해 샘플링 하였고, 질병의 직접적인 원인이 되는 바이러스 외의 RNA가 함께 포함되어 있으며, 염기서열에 비의존적으로 무작위 primer를 사용하여 새로운 병원체의 동정이 가능한 SISPA(Single-Primer Amplification) 프로토콜을 사용하였습니다.



CLC Genomics Workbench 20.0 버전 이상에서는 "Long Read Support(Beta)" 플러그인을 지원합니다. 해당 플러그인을 설치하면 Oxford Nanopore의 MinION 장비에서 시퀀싱한 raw 데이터를 import 할 수가 있습니다.



(Long Read Support Plug-in)

직접 시퀀싱한 데이터 외에 공개된 데이터를 기반으로 분석을 진행해보고 싶다면, SRA 데이터베이스를 연결하여 NGS raw 데이터와 메타데이터를 다운로드하여 분석에 사용할 수 있습니다.

분석에 활용한 데이터도 해당 논문 정보를 토대로 가래과 인후에서 면봉으로 채취한 2개의 샘플을 CLC Genomics Workbench내에 연동된 SRA에서 다운로드 해보았습니다.



(Search for reads in SRA)

더불어 변이 분석을 위한 참조 유전체 서열도 우한에서 등록된 최초의 SARS-CoV-2 바이러스 서열(MT135044)을 NCBI search 기능을 이용하여 준비하였습니다.



(NCBI search & Download)

 



해당 샘플에서는 바이러스 서열 농축을 위한 SISPA 프로토콜을 사용하였기 때문에, SISPA adapter를 제거하기 위한 adapter 서열을 별도로 저장한 후 trimming 과정을 통해 시퀀싱된 서열 내에 포함된 adapter를 제거하였습니다.



(
Adapter trim list)

 




Long Read Support 플러그인은 PacBio 또는 Oxford Nanopore 장비에서 생산된 long read의 de novo assembly와 reference mapping 분석을 지원합니다.

Quality 및 adapter trimming 과정을 거친 2개의 시퀀싱 데이터는 중국 우한에서 등록된 SARS-CoV-2 참조 유전체를 기준으로 맵핑을 진행하였고, 전체 시퀀싱된 서열 중에서 샘플 내 코로나 바이러스 서열이 포함되어 있음을 확인할 수 있었습니다.



(
Read mapping)

맵핑 리포트를 확인해보면, 인후 샘플에서는 채취된 샘플 내에 바이러스가 극소량이라 host genome 데이터가 많이 포함되었을 가능성을 나타냅니다.



참조 유전체 서열에 맵핑된 리드들을 기반으로 변이 분석을 수행할 때 CLC Genomics Workbench에서는 3가지 검출 알고리즘을 제공합니다.

이 중 Fixed Ploidy Variant Detection의 경우는 유전체 배수체를 기준으로 germline 변이 분석에 최적화된 알고리즘이지만, 시퀀싱 에러 모델도 함께 적용되어 있으므로 Oxford Nanopore 데이터의 변이 분석에 효과적일 수 있습니다.

분석 결과, 가래 샘플에서는 5개의 변이가 발견되었고, 인후 샘플에서는 3개의 변이가 발견되었습니다.



(Variant calls)

샘플링 날짜를 살펴보았을 때, 참조 유전체 서열인 MT135044의 경우는 2020년 1월 28일이고 MinION 2개의 시퀀싱 샘플은 2020년 1월 11일로 활동적인 발병 상황에서 시간이 지남에 따라 돌연변이를 추적할 수 있음을 나타냅니다.

추가로 해당 변이의 아미노산 변화에 영향을 미치는지도 확인할 수 있으며, 이를 기반으로 단백질 구조에도 변화를 일으키는지 3차원 형태로 확인할 수 있습니다.



(Protein model of a non-synonymous variant)

 



각 샘플별로 참조 유전체 서열에 맵핑된 consensus 서열을 별도로 저장하여 NCBI의 BLAST를 수행하면, 다른 샘플의 SARS-CoV-2 서열들과도 비교할 수 있습니다.

COVID-19 사태로 별도의 BLAST DB도 운영하고 있으므로, 필요 시 local 환경에 Betacoronavirus DB를 다운로드 받아서 Local BLAST 분석도 가능합니다.



(BLAST output hit table)

 



더불어 여기까지 분석은 워크플로우를 만들면 다량의 샘플을 분석할 때 굉장히 효율적으로 쉽게 운영할 수 있습니다.


 
 (A workflow reproducing the bioinformatics pipeline)

이처럼 생물정보 분석은 전체 유전체 수준에서 전염병의 원인이 되는 병원체를 분석하고 비교할 수 있습니다. 더불어 메타 데이터를 이용하여 환자 유래의 바이러스 및 병원체의 유전체 정보를 함께 비교하면 발생 원인을 역으로 추적할 수 있습니다.

현재 (주)인실리코젠에서는 COVID-19 연구를 포함한 감염병 연구를 위해 CLC Genomics ProSuite(CLC Genomics Workbench를 포함한 바이러스 및 미생물 NGS 분석 패키지)와 Ingenuity Pathway Analysis(IPA, 유전자 네트워크 분석 솔루션)의 단기 라이선스를 지원하고 있으니 신청하시면 6월 15일까지 사용해보실 수 있습니다.



하루 속히 COVID-19 감염 확산이 종식되길 바라며, 앞으로 이러한 생물정보 솔루션들의 활용을 통해서 바이러스 및 병원체 발생을 조기에 감지하고 제어하는 공중 보건의 보호에 도움이 되길 바랍니다.



  • Chan, J. et al., A familial cluster of pneumonia associated with the 2019 novel coronavirus indicating person-to-person transmission: a study of a family cluster. Lancet, 395(15):514-523
  • Aiping Wu, Yousong Peng, et al., Genome Composition and Divergence of the Novel Coronavirus (2019 nCoV) Originating in China. Cell Host and Microbe, 27
  • GISAID, https ://www.gisaid.org/epiflu applications/next betacov app/

작성 : insilico Lab 김경윤 책임

Posted by 人Co

2020/04/14 10:52 2020/04/14 10:52
Response
No Trackback , No Comment
RSS :
https://www.insilicogen.com/blog/rss/response/342

p-value(유의 확률)의 역설



전 세계 30만 명이 넘는 확진자와 증가세를 보이는
코비드-19(COVID-19, Corona virus disease 2019)!
세계보건기구 WHO가 최고 경보단계 '팬데믹(pandemic)'을
선언한 지금 어느 때보다 바이오 연구가 높은 관심과 집중을 받고 있습니다.
오늘은 이와 관련한  p-value에 대해 알아보도록 하겠습니다!
 
먼저 p-value란 무엇일까요? 불과 서너 달 사이 코비드-19와 관련하여 출판된 논문만 1만여 편에 달하는데요. (국제 코비드-19 연관 연구 현황) 확산세 경감과 치료제, 백신 개발 등 다양한 생명연구에서 사용되는 통계지표 p-value! 그 정의부터 연구사례까지 차근차근 보겠습니다!

p-value 정의
p-value(유의 확률, significance probability)
p-value는 '귀무가설(Null hypothesis)이 맞는다고 가정할 때 얻은 결과보다 극단적인 결과(관측 결과)가 나타날 확률'로 정의됩니다. 일반적으로 p-value < 0.05 혹은 0.01을 기준으로 합니다. 계산된 p-value가 기준값보다 작은 경우 귀무가설을 기각하는 것으로 즉, 극단적으로 귀무가설이 일어날 확률이 매우 낮은 상태를 의미합니다.
 
단측검정(위 : left-tail p-value, 아래 : right-tail p-value)



코비드-19 연구 단측검정 사례 : 지난 3월 19일에 한국방사선학회지(Korean J Radiol)에 게재된 논문입니다.(Korean J Radiol, 2020) 이 연구의 가설은 '코비드-19 감염 천식 증상을 보이는 환자 중 폐섬유화(fibrosis)가 나타난 경우는 나이가 많을수록 높다.'는 것입니다. 귀무가설은 '환자 중 섬유화가 일어난 사람과 일어나지 않은 사람의 평균 연령은 같다.' 입니다 . 여기서 세워진 가설은 '섬유화가 같이 일어난 환자의 평균 나이가 일어나지 않은 환자보다 많다.' 라고 할 수 있습니다. 이렇게 대립가설에서 '높다.' 혹은 '낮다.' 라는 방향성이 있는 경우 우리는 단측검정을 사용합니다.
 
양측검정



[출처] 유의 확률

코비드-19 연구 양측검정 사례 : 지난 2월 Cell Discovery에 게재된 논문입니다. ACE2 라는 SARS-coronavirus 수용체 단백질의 서열이 인종 별로 차이가 있는지를 확인한 연구입니다.(Cell Discov, 2020) 귀무가설은 인종 간 단백질 서열의 '차이가 없다.'이고 대립가설은 '차이가 있다.' 입니다. 이렇게 우리가 주장하는 가설의 방향성이 정해지지 않았을 때 우리는 양측검정을 사용할 수 있습니다.
 
미국통계학회(ASA, American Statistical Association) 2016 성명서
우리는 연구 과정에서 수립한 가설을 증명하기 위한 척도로 p-value를 사용합니다. 즉, 가설이 참인지 거짓인지를 가려내는 갈림길에 서게 되는 것이죠. 앞서 '극단적인 결과가 실제로 관측될 확률' 부분을 잘 읽어보세요! p-value=0.05라는 것은 귀무가설을 참이라고 가정할 때 대립가설에 따른 결과가 우연히 일어날 확률이 5%라는 것을 의미할 뿐, p-value 그 자체로는 어떤 가설의 참/거짓 여부를 판단하는 지표가 될 수 없다는 것이죠.
 
2016년 3월 미국통계학회는 이러한 과학자들의 p-value에 대한 의존성에 일침을 가합니다.
성명의 6가지 원칙 원문:미국통계학회, 2017
1. P-values can indicate how incompatible the data are with a specified statistical model. 
 - P-value는 주어진 데이터가 얼마만큼 통계모델을 따르지 않는지를 나타낼 수 있다.
2. P-values do not measure the probability that the studied hypothesis is true, or the probability that the data were produced by random chance alone.
 - P-value는 대립가설이 참일 확률, 또는, 우연히 발생할 확률을 측정하는 값이 아니다.
3. Scientific conclusions and business or policy decisions should not be based only on whether a p-value passes a specific threshold.
 - 어떤 과학적, 정책적인 결론의 근거로 p-value만을 그 지표로써 사용해서는 안 된다.
4. Proper inference requires full reporting and transparency.
 - 합당한 추론을 위해 완전한 보고와 투명성이 보장되어야 한다.
5. A p-value, or statistical significance, does not measure the size of an effect or the importance of a result.
 - p-value는 연구 결과에 중요성이나 효과의 크기를 측정한 값이 아니다.
6. By itself, a p-value does not provide a good measure of evidence regarding a model or hypothesis. 
 - p-value 자체만으로는 모형 또는 가설에 대한 좋은 증거가 되지 못한다.


논지는 'p-value 자체는 내가 세운 가설이 참인지 거짓인지를 판단하는 근거의 하나일 뿐이다.' 입니다. 즉, 이 값이 나의 연구 결과의 중요성이나 효과의 크기를 설명하는 데 있어서 어떤 근거를 제시하지 않는다는 것입니다. 여기서 오해하시면 안 됩니다. 미국통계학회는 p-value가 갖는 의미를 곡해하지 말고 본 의미에 맞게 사용하고 해석하자는 것이 핵심입니다. 통계 도구를 사용하는 많은 사람이 쉽게 빠지게 되는 오류중의 하나인 '확실성'에 대한 추종은 그동안 p-value를 일종의 절대적 지표로써 사용되게 하였습니다.

p-value의 오용
그렇다면 우리가 겪을 수 있는 p-value에 의존한 결론 도출이 가져오는 오류는 어떤 것들이 있을까요? 아래 두 가지 오류를 살펴보도록 하겠습니다.

1. 2종 오류(Type II error)로 인한 실제 의미 있는 결과의 배제
2. 기준점 5%를 맞추기 위한 지나친 표본 수의 증가

첫 번째 오류는 이렇습니다. 질병 A 환자군과 정상인 군에서 유전자 B 발현 값 평균을 검정한 결과 p-value=0.06가 나왔다면 우리는 유전자 B와 질병 연관성이 없다고 결론을 내려왔습니다. p-value의 정의로 해석해보면 다음과 같습니다. '질병 A 환자군과 정상인의 유전자 B 발현 값 평균이 같을 확률은 6%이다. = 100번의 테스트 중 6번의 결과가 A, B에서 동일하게 확인되었다.' 뭔가 이상하지 않나요? 전자는 p-value 0.05 이하의 경우 유(有) 의미(반대로 p-value 0.05 초과는 무(無)의미)하다는 확정성에 근거하여 질병 A와 유전자 B 연관성을 부정하였습니다. 하지만 실제로 4%, 5%, 6%가 유/무의미를 결정지을 만큼의 절대적 기준이 될 수 있을까요?
두 번째 오류는 먼저 p-value 계산에 사용되는 통계치인 Z 통계치(Z statistic) 산정식입니다.



뭔가 이상한 점을 찾으셨나요? 바로 'n' 표본 수입니다. 동일한 표본 평균과 분산을 가질 때 이 n이 커지게 되면 p-value는 낮아지지는 경향이 있습니다.

마무리
이번 글에서는 통계학에서의 p-value의 의미와 해석 방법 그리고 오용했을 때 발생할 수 있는 오류에 대해 살펴보았습니다. 어떠신가요? 그동안 여러분들을 옭아매던 p-value < 0.05의 굴레에서 벗어나셨나요? 생물학에는 정말이지 셀 수조차 없는 변수들이 존재합니다. 그중에서 질서를 찾기 위해 하나의 지표로써 p-value는 분명히 의미를 갖습니다. 통계 도구의 올바른 적용과 해석으로 가치 있는, 즐거운 연구 되시기를 바랄게요~!

참고문헌

작성자 : RDC 경동수 주임

Posted by 人Co

2020/03/25 16:11 2020/03/25 16:11
Response
No Trackback , No Comment
RSS :
https://www.insilicogen.com/blog/rss/response/341

인공지능(AI)의 역사

 
인공지능(AI, 기계학습) 공부에 도움될 사전 지식 및 사이트 포스트에 이어서
인공지능(Artificial Intelligence)의 역사에 대해 알아볼까 합니다. 
인공지능의 개념은 언제, 어디서부터 시작되어
오늘날 이렇게 각광 받고 있는지 함께 알아보도록 하겠습니다!
 
 
000
2008년 4월 존 파브로 감독의 아이언맨(Iron Man)이라는 영화가 개봉했습니다. 

 
영화 속 주인공인 토니 스타크가 아이언맨 슈트를 착용하면 헬멧 속 UHD를 통해 인공지능 비서인 자비스(J.A.R.V.I.S, Just A Rather Very Intelligent System)가 눈으로 보이는 시각 데이터 분석부터 다양한 전문적인 지식을 빠르게 분석하고 알려줍니다.

아래는 아이언맨 1의 한 장면으로 화면에서 보이는 여러 사람 중에서 일반 시민과 인질범을 구분하여 타겟팅하고 타겟이 된 인질범들에게만 미사일이 발사됩니다.
 
 
000
영화에서 인공지능을 통해 사람을 구분하는 기술이 이제는 현실에서도 이루어지고 있습니다.
실시간 안면인식 기술을 통해 영상에 찍힌 사람 중에서 높은 정확도로 특정한 사람의 얼굴을 인식하여 찾아내고 있습니다. 슈퍼컴퓨터급의 인공지능 기술이 발전하면서 사진을 넘어 동영상 속 수십 명의 얼굴을 실시간으로 인식, 분석, 대조하는 것이 가능해졌기 때문입니다.
 
이제는 영화 속에서가 아니라 현실에서도 볼 수 있는, 또한 차세대 트렌드로 4차 산업혁명을 이끄는 인공지능(AI)의 시작에 대한 역사를 알아보고자 합니다.
 
인공지능(Artificial Intelligence) vs 머신러닝(Machine Learning) vs 딥러닝(Deep Learning)
[출처] 전자신문

인공지능이 우리에게 확 다가온 계기가 있었습니다. 바로 2016년 알파고와 이세돌 9단의 바둑 대국이었죠. 당연히 인간이 승리하리라 생각했던 예상과는 다르게 알파고가 이세돌 9단을 4:1이라는 압도적인 스코어로 승리하면서 인공지능에 대한 전 세계적인 관심이 쏟아졌고, 그 이후로 알파고 뿐만 아니라 인공지능 산업이 빠른 속도로 성장하고 있습니다.

인공지능 산업의 성장으로 “AI와 딥 러닝을 활용한 저해상도 의료영상을 고해상도로 변환”이나 “국내 최초 강화학습 AI 알고리즘을 적용한 머신러닝 적용” 등과 같은 기사들을 많이 볼 수 있습니다. 이러한 기사들에서 인공지능이라는 용어와 함께 사용되는 딥 러닝, 머신러닝은 무엇일까요? 인공지능의 역사를 알아보기에 앞서 간략하게 인공지능, 머신러닝, 딥 러닝에 대한 개념을 한 번 알아보겠습니다.



[출처] 투비소프트 칼럼

인공지능의 정의는 ‘사고나 학습 등 인간이 가진 지적 능력을 컴퓨터를 통해 구현하는 기술’로서 개념적인 정의에 가깝습니다. 1950년대 인공지능을 연구하던 학자들이 인간의 지능과 유사한 특성을 가진 복잡한 컴퓨터 제작을 목표로 함께 연구를 시작했고, 이때 인공지능이라는 개념이 등장했습니다.

이러한 인공지능을 구현하기 위한 구체적인 접근 방식이 바로 머신러닝인 거죠. 머신러닝의 정의는 말 그대로 ‘컴퓨터가 스스로 학습하여 인공지능의 성능을 향상하는 기술 방법’을 의미합니다. 여기서 중요한 단어가 ‘스스로 학습’입니다. 프로그래머가 구체적으로 로직을 직접 코딩하는 것이 아닌, 빅데이터와 알고리즘을 통해 컴퓨터에 ‘학습’을 시켜 원하는 결괏값을 도출해내는 것이죠.

딥러닝이란 머신러닝의 한 분야로 인공신경망(Artificial Neural Network) 방식으로 정보를 처리하는 기술을 의미합니다. 최근 인공지능 붐을 일으킨 분야로 완전한 머신러닝을 실현하는 기술이라고 볼 수 있습니다.

요약하자면 그림에서 표시된 것과 같이 인공지능이 가장 큰 범주이고, 그다음으로 머신러닝, 가장 세부적인 부분이 현재의 인공지능 붐을 주도하고 있는 딥 러닝입니다. 이 세 단어의 관계를 정의하자면 다음과 같습니다.

-> 인공지능 ⊃ 머신러닝(기계 학습) ⊃ 딥 러닝(심층 학습)

인공지능의 역사000
초기 인공지능에 대한 연구는 인공지능이라는 개념이 없는 이론적인 분야였기에 다양한 분야의 수많은 학자가 연구했습니다. 일례로 인공지능이라는 용어는 1956년에 처음 등장하였지만, 현재 인공지능의 세부적인 부분으로 분류되는 딥 러닝의 기원이 되는 인공신경망에 대한 기초이론은 1943년도에 논문으로 발표되었습니다. 수많은 시행착오를 거치면서 인공지능이라는 학문의 분야가 생겨났고, 긴 시간 동안 정립된 이론과 기술들이 정리되어 현재의 인공지능 분야를 이루게 되었습니다. 본 글에서는 인간 두뇌의 뉴런 작용을 처음으로 논리적 모델로 설명한 1943년부터 시작됩니다.
 
1943, 딥러닝의 기원을 열다, 워런 맥컬럭 & 월터 피츠
1943년 논리학자인 월터 피츠(Walter Pitts)와 신경외과의 워렌 맥컬럭 (Warren Mc Cullonch)은 ‘A Logical Calculus of Ideas Immanent in Nervous Activity’ 논문을 발표합니다.
 
이 논문에서 뉴런의 작용을 0과 1로 이루어지는 2진법 논리 모델로 설명했고 이는 인간 두뇌에 관한 최초의 논리적 모델이었습니다. 이렇게 현재 인공지능의 트렌드를 이끌고 있는 딥 러닝에 대한 연구가 시작되었습니다.
 
1943, 딥러닝의 기원을 열다, 워런 맥컬럭 & 월터 피츠


[출처] 인공지능 그리고 머신러닝의 모든것, 고지식-거니

1950년 영국 수학자 앨런 튜링(Alan Mathison Turing)은 ‘계산 기계와 지능(Computing Machinery and Intelligence)’라는 논문을 발표합니다. 이 논문에서 앨런 튜링은 기계가 생각할 수 있는지 테스트하는 방법과 지능적 기계의 개발 가능성, 학습하는 기계 등에 관해 기술하였습니다. 이 기술을 현실화한 튜링머신은 존 폰 노이만 교수에게 직접 또는 간접적인 영향을 주어 현대 컴퓨터 구조의 표준이 되었습니다.

이후 1956년 인공지능이라는 용어가 처음으로 등장하였습니다. 1956년 미국 다트머스 대학에 있던 존 매카시(John McCarthy) 교수가 ‘다트머스 AI 컨퍼런스’를 개최하면서 초청장 문구에 ‘AI’라는 용어를 처음으로 사용했습니다.

We propose that a 2 month, 10 man study of artificial intelligence be carried out during the summer of 1956 at Dartmouth College in Hanover, New Hampshire. 
(1956년 여름 뉴 햄프셔 하노버에 있는 다트머스대에서 두 달 동안 10명의 과학자가 모여 인공지능을 연구할 것을 제안합니다)

 
이 AI 컨퍼런스에서 모인 10여 명의 과학자들은 앨런 튜링의 ‘생각하는 기계’를 구체화하고 논리와 형식을 갖춘 시스템으로 이행시키는 방안을 논의했습니다.


1950, Perceptron의 등장


1950년대의 인공지능 연구는 크게 두 가지 분야로 구분되었습니다.  바로 '기호주의'와 '연결주의'인데요, 기호주의(Symbolism)은 인간의 지능과 지식을 기호화해 매뉴얼화하는 접근법이었고, 연결주의(Connectionism)는 1943년 월터 피츠와 워런 맥컬럭이 연구한 뇌 신경 네트워크의 재현을 목표로 하는 접근법이었습니다. 각 장단점이 있었으나 1950년대에 현실적으로 실현 가능한 기호주의 분야가 사람들의 관심을 더 받고 있었습니다.

1958년 기호주의로 독주하고 있던 마빈 민스키(Marvin Lee Minsky)에게 도전장을 내민이가 있었으니, 바로 퍼셉트론(Perceptron)을 고안한 마빈 민스키의 1년 후배인 프랭클린 로젠 블랫(Frank Rosenblatt)입니다. 퍼셉트론은 인공신경망(딥러닝)의 기본이 되는 알고리즘으로 월터 피츠와 워런 맥컬럭의 뇌 모델과 1949년에 발표된 도널드 헵(Donald Hebb)의 ‘헵의 학습이론’에 힌트를 얻어 가중치를 추가한 업그레이드 버전이었죠. 이렇게 세상 밖으로 나온 퍼셉트론은 사람들의 사진을 대상으로 남자와 여자를 구별해내고 뉴욕 타임즈에 실리게 됩니다. 인공지능 연구의 트렌드가 기호주의에서 연결주의로 넘어오게 되는 계기가 되었죠.

[출처] 인공지능 탄생의 뒷이야기, 야만ooo

1969, AI의 1차 겨울 : XOR 문제 등판

 

로젠 블랫의 퍼셉트론에 모든 관심이 집중되자 기호주의의 마빈 민스키는 제자 시모어 페퍼트(Seymour Papert)와 퍼셉트론의 한계를 수학적으로 증명하면서 로젠 블랫의 퍼셉트론이 무너지고 2년 뒤인 1971년 로젠 블랫이 사망하면서 인공지능의 빙하기가 도래하게 됩니다.

로젠 블랫의 퍼셉트론으로 AND, OR, NAND 같은 선형문제는 풀 수 있지만, XOR 같은 비선형 문제는 해결할 수 없었고, 대부분 데이터는 선형보다 비선형 형식으로 데이터가 분포되어 있었습니다. 이러한 문제로 퍼셉트론을 기반으로 한 수많은 인공지능 연구가 끊기게 되고 다시 마빈 민스키의 기호주의 학문으로 관심이 집중되었으나, 기호주의도 한계에 도달하면서 인공지능은 세간의 관심에서 점점 멀어져 갔습니다.

1986, AI의 부활 : 딥 러닝의 아버지 제프리 힌튼

[출처] Neural Network, Sliude Share

인공지능에 대한 관심은 줄어들었지만, 묵묵히 연구를 지속해오던 연구자들도 있었습니다. 1986년 인공지능의 첫 번째 빙하기를 깨고 인공지능의 부활을 알린 사람이 있었으니 바로 딥 러닝의 아버지라 불리는 제프리 힌튼(Geoffrey Everest Hinton)입니다. 제프리 힌튼 교수는 다층 퍼셉트론(Multi-Layer Perceptrons, MLP)과 Back-propagation Algorithm을 실험적으로 증명하였고 이를 통해 XOR 문제를 해결하였습니다.

사실 제프리 힌튼이 다층 퍼셉트론와 Back-propagation Algorithm을 고안해낸 것은 아니었습니다. 1969년 위치 호(Yu-Chi Ho)와 브라이손(Arthur E. Bryson)에 의해 Back-propagation Algorithm이 고안되었으며, 1974년 하버드대의 폴 워보스(Paul Werbos)는 다층 퍼셉트론 환경에서 학습을 가능하게 하는 Back-propagation Algorithm으로 박사학위 논문을 썼으나 인공지능 분야의 침체한 분위기 속에 8년 후 1982년에 논문을 발표하였습니다. 이것이 1984년 얀 르쿤(Yann LeCun)에 의해 다시 세상 밖으로 나왔고, 1986년 데이빗 럼멜하트(David Rumelhart)와 제프리 힌튼에 의해 세상에 알려지게 되었습니다.

1990년대 후반, AI 2차 겨울 : MLP의 문제점
제프리 힌튼의 다층 퍼셉트론과 Back-propagation Algorithm을 계기로 1990년대 초반까지 인공지능 연구에 큰 발전을 이루었습니다. 그러나 1990년대 다층 퍼셉트론에서도 한계가 보이기 시작하면서 인공지능 연구의 두 번째 빙하기를 맞이하게 됩니다.

두 번째 문제는 Vanishing Gradient와 Overfitting 이었습니다. 다층 신경망의 은닉층(Hidden layer)을 늘려야 복잡한 문제가 해결 가능한데 신경망의 깊이가 깊어질수록 오히려 기울기(gradient)가 사라져 학습이 되지 않는 문제인 Vanishing Gradient가 발생했습니다. 또한, 신경망이 깊어질수록 너무 정교한 패턴을 감지하게 되어 훈련 데이터 외 새로운 데이터에 대해서는 정확성이 떨어지는 Overfitting 문제가 발생했던 거죠.

2006, 제프리 힌튼의 심폐소생술 : 딥 러닝 용어의 등장

000

모두가 인공신경망을 외면하던 암흑기 시절에도 제프리 힌튼은 꿋꿋하게 인공신경망을 연구해왔습니다. 제프리 힌튼은 “A fast learning algorithm for deep belief nets” 논문을 통해 가중치(weight)의 초깃값을 제대로 설정한다면 깊은 신경망을 통한 학습이 가능하다는 것을 밝혀냈습니다.

기존 인공신경망과 크게 달라진 점은 없었지만, 인공지능의 두 번째 겨울을 거치면서 인공신경망이라는 단어가 들어간 논문은 제목만 보고 거절당하거나 사람들의 관심을 끌지 못해 deep을 붙인 DNN(Deep Neural Network)이라는 용어를 사용하면서 본격적으로 딥 러닝(Deep Learning) 용어가 사용되기 시작했습니다.

2012, ImageNet : ILSVRC
ImageNet는 2009년 페이페이 리(Fei-Fei Li)가 만든 방대한 이미지의 데이터베이스입니다. 인공지능을 학습시키기 위해서는 수천, 수만 번의 반복 학습이 필요한데 이때 알고리즘 뿐만 아니라 학습량도 매우 중요하다고 생각했죠. 이를 계기로 ImageNet이라는 방대한 이미지 데이터베이스를 구축하게 되었고, 2010년부터 ILSVRC(ImageNet Large Scale Visual Recognition Challenge)라는 이미지 인식(image recognition) 경진대회도 진행하였습니다.

ILSVRC는 주어진 대용량의 이미지 셋을 데이터로 이미지 인식 알고리즘의 정확도, 속도 등의 성능을 평가하는 대회입니다. 2010년, 2011년까지는 얕은 구조(shallow architecture)를 가진 알고리즘이 우승하였으나, 약 26% 정도의 오류율을 보여 왔습니다. 오류율이 0.1%라도 낮아진다면 우승이라는 말이 있었을 만큼 얕은 구조 기반의 알고리즘으로는 오류율을 낮추는 것이 매우 힘든 일이었죠.

000
그러나 2012년, 깊은 구조(deep architecture) 제프리 힌튼 팀의 AlexNet이 약 26%였던 오류율을 16%로 낮추는 압도적인 정확도로 우승을 차지하면서 딥 러닝은 부흥기를 맞게 됩니다.
 
이후 등장하는 알고리즘들은 모두 깊은 구조 기반의 딥 러닝 알고리즘이었으며, 2015년에는 사람의 정확도라고 알려진 5% 대의 오류율을 거뜬히 넘겨버렸습니다. 이제 사람보다 기계가 이미지를 더 잘 구별하게 된 것입니다.

마무리000
인공지능은 우리가 생각했던 것보다 더 오랜 시간 많은 연구자를 통해 꾸준히 연구됐고, 딥 러닝 기술이 고안되어 세상의 관심과 빛을 보고 있습니다. 네트워크 및 하드웨어의 발달을 바탕으로 최근 인공지능 분야는 처리 능력과 연산 효율성을 크게 개선하였습니다. 이러한 컴퓨팅 파워 및 클라우드, 빅데이터와 혁신적으로 발전하고 있는 알고리즘들이 융합되면서 이미지나 영상 내 개체 식별, 자연어 처리, 음성 처리 등 현재는 딥 러닝이 사용되지 않는 분야가 없을 정도로 여러 분야에서 활용되고 있으며, 필수 학문으로 자리 잡고 있습니다.
IBM은 근 미래인 2025년 인공지능 산업이 2,000조 원에 이르는 시장을 창출할 것으로 내다보고 있으며, 맥킨지는 인공지능으로 인해 7,000조 원에 이르는 파급 효과가 창출될 것으로 전망하고 있습니다. 물론 딥 러닝이 모든 분야에서 만능은 아닐 것입니다. 다만 수많은 벽에 부딪히면서도 앞으로 나아갔던 과거처럼 지금도 수많은 연구자, 기업이 다양한 방법으로 새로운 기술을 개발하고 있으며, 인공지능 산업 또한 매우 빠르게 성장하고 있습니다. 언제라고 장담할 수는 없겠지만, 영화 속에서만 볼 수 있었던 아이디어들이 언젠가는 현실 세계에서 먼저 나타나지 않을까 생각해 봅니다.
 
참고문헌
작성자 BS실 강전모 주임

Posted by 人Co

2020/03/10 14:16 2020/03/10 14:16
Response
No Trackback , No Comment
RSS :
https://www.insilicogen.com/blog/rss/response/340


 
2012년부터 시작된 ㈜인실리코젠의 人CoINTERNSHIP은
바이오 연구개발과 조직생활의 기초 개념을 이해할 수 있도록 진행하였습니다.
많은 분들의 관심과 참여를 통해 벌써 10번째 기수를 수료하였습니다!


 
총 6명의 참가자가 6주동안 진행된 제10기 人CoINTERNSHIP!
참가자들의 스토리를 함께 보겠습니다.



사용자 삽입 이미지
김상현 (
Umeå University)
6주간의 인턴십을 하면서 예상보다 훨씬 더 많은 부분을 얻고 가서 뿌듯했고 잘 챙겨주신 임직원분들에게 감사했습니다. 먼저, 人Co 인턴십은 생물정보학 개론 정도의 수준 높은 교육 인프라를 가졌습니다. 석사 논문 프로젝트를 수행하면서 독학으로 Bioinformatics를 이해하다 보니 궁금한 점이 매우 많았었는데, 인턴십을 통해 그 점들을 해소할 수 있었습니다. 특히 매주 각 부서가 교육을 담당했기 때문에, 기대되었고 신기했습니다. 다양한 부서에서 인턴십 프로그램을 진행하다 보니 인턴십을 마치고 나서는 많은 직원과 친분을 맺을 수 있었습니다. 다음으로는, 인턴십을 통해 회사 생활 (사회생활)을 제대로 경험한 것 같습니다. 저번과 달리 이번 기수는 각 인턴의 자리가 사무실에 마련되어 있어 업무가 어떻게 흘러가는지 자연스럽게 알 수 있던 것 같습니다. 정말 사원이 된 기분이었습니다. 또한, 제 개인적으로는 한국적인 사회생활을 한 지가 매우 오랜만이고 특히 사기업은 처음입니다. 그래서 전해만 들었던 회사 내에서의 생활을 몸소 겪을 수 있었고 직원분들이 정말 잘 대해주셔서 좋은 인상을 많이 받았습니다. 특히 동료애가 끈끈한 한국 문화를 새삼 소중히 여겼습니다. 인코 임직원분들과 앞으로도 지속적인 관계를 이어나갈 예정입니다.
 
 
사용자 삽입 이미지
김정환 (순천향대학교)

인실리코젠, 인턴분들과 함께한 8주간의 인턴십을 마무리했습니다. 어색하던 분위기가 이제는 장난도 치고 여유 있는 모습이 된 것 같습니다. 처음 이번 인턴십을 준비하면서 자기소개서를 작성하고 포트폴리오를 만들어 발표를 하던 게 엊그제 같은데 벌써 시간이 이렇게 흘러 수료를 하게 되었습니다. 사실 이번 인턴십을 지원하기 전에 생물정보학에 대해서도 아는 게 없고, 컴퓨터 분야도 몰랐었기 때문에 지원하는 것부터가 저한테는 도전이었습니다. 그렇게 망설이던 도중 평소에 생명과학을 공부하면서도 컴퓨터 분야에 대해 막연하게 관심이 있었던 사소한 계기로 생물정보학을 다루는 인실리코젠 인턴십에 지원해 배워보고 싶다는 생각을 하였고, 일정을 진행하다 보면 어떻게 해야 할지 알 수 있을 것 같았습니다. 인턴십을 진행하며 생물정보학뿐만 아니라 파이썬, R과 같은 프로그래밍 언어를 배워 직접 실습하는 것이 흥미로웠고 인공지능에 대해 배울 기회가 있었는데 이것도 좋은 경험이었습니다. 또한, D.iF에서 진행했던 사업 아이디어를 린캔버스에 작성해 발표하고 피드백을 받는 것, 사업이 어떻게 진행되고 개발/연구가 어떻게 되는지에 대한 개요들 모든 것을 배울 수 있게 해준 인턴십에 정말 해보길 잘했다는 생각이 듭니다. 인턴십 면접 때 회사의 분위기가 어떠냐는 질문에 저는 정말 따듯한 느낌을 받았었다고 대답했었는데 정말로 회사의 모든 분이 친절하게 대해주시고 사장님도 사원들과의 소통 또한 아끼시지 않으며 여러 추천 독서들로 마음의 양식까지 담을 수 있었습니다. 이렇게 좋은 사람들과 좋은 프로그램으로 저를 앞으로 한 발짝 내딛게 해준 인실리코젠에 감사하며, 8주간 고생 많으셨습니다!


사용자 삽입 이미지
윤서연 (고려대학교)

6주간의 인코 인턴십은 생물정보 분야에 대해 전반적으로 이해할 수 있게 된 좋은 경험이었습니다. 처음 인턴십을 신청할 때는 막연하게 bioinformatics에서 어떤 일을 하는지 알아가는 정도이지 않을까 했는데, 매주 구체적인 커리큘럼이 있고 실습이 적절하게 섞여 있어서 생생하게 체험할 수 있었던 것 같습니다. 대학원에서 석사 과정을 수학하면서도 논문에 나와 있는 NGS 분석 데이터에 대해 막연하게만 이해하는 정도에만 그쳤었습니다. 하지만 교육을 받고 나니 유용하게 사용할 수 있는 프로그램이 무엇이 있는지 배우고 사용법을 익혀 연구자로서도 많이 성장할 기회였습니다. 무엇보다 가장 재미있었던 것은 최근 인실리코젠에서 관심이 있는 딥러닝이었습니다. 사내 스터디에 참여하여 딥러닝이 무엇이고 어떻게 작용하는지 알게 되었고, 공식을 뜯어서 하나하나 이해하면서 생소했던 분야에 한 걸음 더 다가갈 수 있게 되었습니다. 바쁜 시간 내주시어 친절하게 질문에 하나하나 설명해주셨던 멘토님과 적응하는 데 도움을 주신 회사 직원분들께 감사드립니다.

 
박주영 (숭실대학교)
사용자 삽입 이미지

제 10기 인코인턴십 박주영 진로의 구체화에 놓인 저에게 다양한 분야의 생명정보를 알려준 인턴십 프로그램은 정말 저의 진로 길라잡이 같은 프로그램이었습니다. 생명정보 소프트웨어 실습을 담당한 InsilicoLab, 리눅스와 파이썬 교육을 담당한 DSC, 데이터 모델링과 사업 프로세스에 대한 교육을 맡은 BS, NGS 데이터를 얻고 R을 이용해 분석하는 법을 가르쳐주신 RDC, 마지막으로 인실리코젠의 자회사로 데이터베이스와 lean canvas에 관한 교육을 맡은 D.iF 까지 매주 교육을 통해 조금이나마 경험을 하고 그 경험하는 과정에서 내가 어디에 흥미를 느끼는지, 일찍이 포기해야 할 것 같은 분야는 무엇인지에 대해 알 수 있었습니다. 또 人CoDOM을 쓰면서 기존에 알고 있던 지식을 어떻게 연결하여 글을 작성해 나가야 할지 고민하는 것이 힘들긴 하였지만 다 쓰고 난 후에는 다른 사람들이 내 글을 보고 무언가를 배울 수 있다는 뿌듯함을 느낄 수 있었습니다. 생명정보 이외에도 정말 좋은 선배님들, 동기들을 만나 많은 것을 배우고 각종 독서 프로그램을 하는 과정에서 내면으로도 성장한 6주였습니다.

 
박주희 (대진대학교)
사용자 삽입 이미지

인코인턴십 면접 합격 소식을 듣고 인실리코젠 블로그에서 후기를 찾아봤던 게 엊그제 같은데 벌써 제가 후기를 쓰고 있다는 게 신기합니다. 6주 인턴십을 하는 동안 시간이 빠르게 흘러갔지만 정말 뿌듯했던 시간이었습니다. 먼저 첫주에는 OJT 공통교육을 하면서 IX팀과 경영지원팀을 경험할 수 있었고 두 번째 세 번째 주에는 AI, 생물정보 분석 소프트웨어, 리눅스, 파이썬 등을 공부하며 DSC팀을 알 수 있었습니다. 넷째 주에는 소프트웨어 개발 프로세스를 배우고 Lean Canvas, 그래프 데이터베이스를 실습하며 인실리코젠의 자회사인 D.iF에 대하여 알고 사업에 대하여도 생각해 볼 수 있었습니다. 다섯째 주에는 AXURE, gliffy를 실습하고 데이터 모델링, 시스템 구축 대가 산정들을 공부하면서 BS 부서에서 하는 SI 사업을 이해 할 수 있었고 마지막 주에는 R을 실습하고 논문을 공부하면서 NGS 데이터를 분석하는 RDC 부서를 경험하였습니다. 이렇게 1주씩 다양한 분야를 경험하였고 이를 통해서 관심이 있는 생물정보학 내에서 저의 흥미나 장단점에 맞는 분야를 생각해 볼 수 있어서 좋았습니다. 이외에도 월요세미나, 독서경영, 인코덤 작성 등을 통해서 회사 업무 이외에도 다양한 인사이트를 얻을 수 있었고 따로 딥러닝 스터디도 해보면서 딥러닝에 대해서, 또 가르치고 배우는 것에 대해서 잘 알 수 있었습니다. 또한, 6주간의 과정에서 사람의 중요성에 대해서도 생각해 볼 수 있었습니다. 먼저 다양한 분야와 학위의 사람들을 모아 인턴십을 꾸려 주셔서 인턴들 사이에서도 많이 배울 수 있었고 멘토 멘티 활동이나 다양한 활동들을 통해서 인실리코젠의 사람을 중심(Core)으로, 사람과 컴퓨터(Computer)에 의해, 배려(Consideration)와 소통(Communication)을 통한 새로운 문화를 창조하려 한다. 라는 가치 체계를 다시 생각해 볼 수 있었습니다. 6주간의 짧지만 빡빡한 일정으로 생물정보학의 전반적인 부분과 사회생활에 대해서 잘 알 수 있었고 탄탄하게 짜인 구성이라서 몸만 맡기고 열심히 노력하면 배우고 느낄 수 있는 게 너무 많았던 것 같습니다. 인턴십을 진행하기 전에는 생물정보학 분야로 진출하는 데에서 학교에서는 아는 사람도 없고 막막하기만 했는데 인턴십이라는 좋은 기회로 인해서 여쭤볼 수 있는 다양한 사람을 만날 수 있어서 좋았고 제 목표를 구체화할 수 있었던 정말 좋은 경험이었던 것 같습니다. 다들 하나라도 더 가르쳐 주시려고 하시고 챙겨주셔서 정말 감사했습니다!


허유진 (차의과학대학교)
사용자 삽입 이미지

인턴을 처음 시작했을 때에 막연하게만 생각했던 것들이 6주간의 시간을 거치며 많이 채워진 것 같습니다. 짧은 시간 내에 많은 내용을 다루다 보니 심도 있게 또는 바로 응용해서 사용할 수 있을 정도로 배울 수는 없었지만, 여태까지 접해보지 못했었던 다양한 프로그램과 분석 툴을 직접 사용해볼 수 있었습니다. 매주 다른 부서를 접해보며 생물정보에 어떤 다양한 분야가 있으며 어떤 것이 저에게 적합한지에 대해 알 수 있었습니다. 모든 직원분과 멘토분들께서 친절하게 대해주셨으며, 회사의 복지 자체도 정말 잘 이루어져 있다고 느껴졌습니다. 인턴십 프로그램을 참여하며 좋은 사람들을 만나 많은 것을 배울 수 있었고, 한층 더 성장할 기회가 되었던 것 같습니다. 매일 새벽에 일어나 먼 거리에서 출근해서 조금 힘들었지만, 평생 후회하지 않을 좋은 경험을 마무리한 것 같습니다. 인턴십 프로그램을 제공해주시고 교육을 위해 시간을 내주신 모든 직원분께 정말 감사드립니다!!

 

8주간을 돌아보며


인코인들과의 첫 만남,
자신의 좋아하는 것과 어떤 분야에 관심이 있는지 발표
 중 한 장면
- 2020년 01월 13일 월요세미나 중


어리석은 사람은 인연을 만나도 몰라보고,
보통 사람은 인연인 줄 알면서도 놓치고,
현명한 사람은 옷깃만 스쳐도 인연을 살려낸다.
- 피천득

 

6주간 동고동락한 멘토와 함께 촬영!
수료한 모든 분들 축하드리며, 항상 응원하겠습니다.
- 2020년 02월 14일 수료식 중
 

10기 수료생분들이 준비해준 작은 정성이 담긴 선물

작성 : 人CoINTERNSHIP 제10기 수료생
김상현, 김정환, 윤서연, 박주영, 박주희, 허유진

Posted by 人Co

2020/03/02 09:00 2020/03/02 09:00
Response
No Trackback , No Comment
RSS :
https://www.insilicogen.com/blog/rss/response/339



« Previous : 1 : 2 : 3 : 4 : 5 : 6 : 7 : 8 : ... 69 : Next »