|
--- |
|
base_model: Kerneld/klue-roberta-base-klue-sts |
|
library_name: sentence-transformers |
|
metrics: |
|
- pearson_cosine |
|
- spearman_cosine |
|
- pearson_manhattan |
|
- spearman_manhattan |
|
- pearson_euclidean |
|
- spearman_euclidean |
|
- pearson_dot |
|
- spearman_dot |
|
- pearson_max |
|
- spearman_max |
|
pipeline_tag: sentence-similarity |
|
tags: |
|
- sentence-transformers |
|
- sentence-similarity |
|
- feature-extraction |
|
- generated_from_trainer |
|
- dataset_size:17552 |
|
- loss:MultipleNegativesRankingLoss |
|
widget: |
|
- source_sentence: LPAT의 시험문제를 출제한 기관은? |
|
sentences: |
|
- '센고쿠 시대의 아이즈 지방은 센고쿠 다이묘 아시나씨가 구로카와(黒川)를 본거지로 하여 지배하고 있었다. 1589년, 다테 마사무네가 아시나 |
|
가문을 멸망시키고 이 지역을 차지하였으나 1590년에 도요토미 히데요시에 의해 아이즈 지방 및 주변 지역을 몰수당하였고, 대신 가모 우지사토가 |
|
아이즈 42만 석(훗날 92만 석이 됨) 영지를 소유하게 되었다. 우지사토는 구로카와를 와카마쓰(若松)라 개명하였고, 가미가타로부터 상인들을 |
|
초빙하여 영지 경영에 공헌하였다. 우지사토의 뒤를 이은 가모 히데유키는 1598년에 우쓰노미야 번 12만 석으로 삭감 전봉되었고, 에치고 국로부터 |
|
우에스기 가게카쓰가 고쿠다카 120만 석으로 입번하였다. |
|
|
|
|
|
그러나 가게카쓰도 세키가하라 전투 때 이시다 미쓰나리의 편에 섰다는 이유로 1601년에 요네자와 번 24만 석으로 삭감 전봉되었고, 당시 도쿠가와 |
|
이에야스측에서 싸웠던 가모 히데유키는 고쿠다카가 60만 석으로 추가되어 아이즈로 돌아올 수 있었다. 히데유키의 뒤를 이은 가모 다다사토가 1627년 |
|
급사하자, 후사가 없어 영지가 몰수될 뻔하였으나, 그 어머니가 도쿠가와 이에야스의 딸인 관계로, 동생 가모 다다토모가 가모씨의 당주를 이어받고 |
|
이요 마쓰야마 번으로 옮겨가 명맥을 유지하게 되었다. 대신 마쓰야마 번으로부터 가토 요시아키가 아이즈로 들어왔다. 하지만 2대 번주 가토 아키나리가 |
|
아이즈 소동이라는 후계자 분쟁에 휘말리면서 결국 영지를 반납하게 되었다. |
|
|
|
|
|
가토씨가 아이즈에서 퇴출당한 1643년, 야마가타 번에 있던 호시나 마사유키가 23만 석으로 아이즈 번에 들어왔다. 마사유키는 2대 쇼군 도쿠가와 |
|
히데타다의 사생아이자 3대 쇼군 도쿠가와 이에미쓰의 배다른 동생으로, 이에미쓰의 신뢰를 받아 막부 정치에 중요한 역할을 하였으나, 다케다씨의 |
|
유신이었던 양부 호시나 마사미쓰와의 의리상 마쓰다이라로 성을 바꾸지는 않았다. 이후 호시나씨는 3대 마사카타 대에 비로소 마쓰다이라로 개성하였고, |
|
도쿠가와 히데타다의 후손으로 인정받아 신판 다이묘가 되었다. 이후 실제 고쿠다카는 40만 석까지 올라갔으며, 미토 번(도쿠가와 고산케 중 하나)보다도 |
|
실수입이 많고 군사력도 강대한 번이 되었다. |
|
|
|
|
|
막말, 마지막 번주 마쓰다이라 가타모리는 1862년에 교토슈고쇼쿠를 맡았고 신센구미를 휘하에 두어, 존왕양이파 지사들의 관리와 교토 치안유지를 |
|
담당했다. 금문의 변 때는 고메이 천황을 탈취하려는 조슈 번 세력으로부터 궁궐을 지켜냈다. 이후 가타모리는 고메이 천황으로부터 아이즈 번에 |
|
의지한다는 내용의 서한을 받았다. 고메이 천황 사후, 대정봉환, 왕정복고를 거쳐 보신 전쟁이 발발하자, 가타모리는 구 막부 세력의 중심으로 |
|
여겨지면서 신정부군의 주적이 되었고, 고메이 천황의 서한이 있음에도 불구하고 조적(朝敵)으로 간주되었다. 아이즈 번은 오우에쓰 열번동맹의 지원을 |
|
받아 쇼나이 번과 함께 동맹을 체결하고 신정부군에 대항하였으나, 아이즈 전쟁에서 패배하고 결국 항복하였다. 아이즈 번 영지는 이때 몰수되었고, |
|
가타모리는 금고형에 처해져 돗토리 번에 유폐되었다. 1869년, 메이지 정부는 가타모리의 아들 마쓰다이라 가타하루가 가문의 명맥을 잇는 것을 |
|
허락하고 도나미 번을 세우게 했지만, 아이즈 지역은 메이지 정부의 직할지가 되었고, 와카마쓰 현이 설치되었다가 1876년에 후쿠시마현에 합병되었다.' |
|
- '영어는 홍콩의 공용어 중 하나이다. 그런데 현지 홍콩 사람들의 약 95%는 중국 사람들이며, 이들은 영어를 학교에서 배우는 제2 언어로서 |
|
사용하고 있다. 일상 생활에서는 광둥어가 주로 쓰인다. |
|
|
|
|
|
1997년 홍콩 주권 이양 이후, 영어는 계속 공식적인 언어로 남아 있지만, 새 정부의 방침에 따라 일부 초등 학교 및 중등 학교만이 공식 |
|
교재의 언어로서 영어를 쓰는 데 그치고 있다. 반면 대학 및 기업, 법원 등지에서는 영어가 널리 쓰이고 있다. |
|
|
|
|
|
싱가포르 사람이나 오스트레일리아 사람들과는 달리, 홍콩 사람들은 자신들이 말하는 홍콩식 영어가 어딘가 조금씩 잘못된 영어라고 생각한다. 교육을 |
|
잘 받은 사람들은 보통 영국식 영어를 기본으로 약간의 미국식 영어가 섞인 형태의 영어를 구사한다. 단, 개인 수준 차에 따라 수준은 달라질 |
|
수 있다. |
|
|
|
|
|
영어 원어민이 아닌 지역 영어 교사의 영어 수준은 종종 논란 거리가 된 바 있다. 이에 따라 홍콩 교육부는 영어학과 학사 학위가 없는 교사들에게, |
|
그들의 영어 실력이 일정 수준 이상이 되도록 보장하기 위해, LPAT이라는 시험을 통과한 증명을 제출하도록 요구하였으며, LPAT을 통과하지 |
|
못한 교사들은 퇴출되었다. 정부에 의해 고용된 교사 이외에, 영어 원어민조차도 이 시험에 떨어질 정도였다. 교사들 중 일부는 시험을 피해 은퇴하기도 |
|
하였으나, 많은 수의 교사들이 시험을 통과하지 못하였다.' |
|
- 금오공과대 건축학과를 졸업한 최종섭 씨는 지난해 ‘한·미 대학생 연수취업(WEST)’ 프로그램을 통해 미국에서 인턴으로 근무하던 건축회사 루멘스에 |
|
정규직으로 취업했다. 전문대 글로벌 현장학습에 참여했던 정지은 씨(영남이공대 식음료조리계열)도 아랍에미리트(UAE) 두바이의 5성급 호텔인 |
|
제벨알리호텔에서 현장실습을 하다 빠른 손놀림과 성실성을 인정받아 현지 취업에 성공했다.해외에서 어학연수나 학점을 이수하며 인턴 체험을 하는 |
|
글로벌 현장학습 프로그램을 통해 올해 대학생들이 대거 파견 나간다. 교육부와 한국대학교육협의회, 한국전문대학교육협의회는 3일 ‘2015년 글로벌 |
|
현장학습 사업 계획’을 통해 올해 96억9400만원을 들여 학생 1090명을 해외에 파견한다고 발표했다.WEST 프로그램의 경우 올해 390명이 |
|
미국에서 어학연수를 받고 정보기술(IT), 금융, 항공, 패션 등 전공과 관련된 분야에서 인턴으로 일한다. 참가자 전원에게 왕복항공료 200만원을 |
|
지급하고 어학연수비, 생활비는 소득 수준에 따라 차등적으로 지원한다. 저소득층 학생에게는 최대 2455만원을 지원한다.올해는 기존 18개월과 |
|
6개월 외에 12개월 프로그램이 추가됐다. 지원 대상은 4년제대, 전문대 재학생이나 1년 이내 졸업생으로 정부 해외인턴 포털 사이트(www.ggi.go.kr)에서 |
|
신청할 수 있다.글로벌 현장학습은 올해 700명이 참가하지만 상반기 선발은 끝났고 7월에 141명을 추가로 뽑는다. 참가 학생은 6개월 동안 |
|
외국에서 현장실습을 하며 최대 20학점을 취득할 수 있다. 항공료, 비자 발급비, 보험료 등을 정부로부터 지원받는다.현장학습이지만 본인의 노력에 |
|
따라 해외 현지 취업도 가능하다. 김태성(청암대·일본 IT기업 취업), 박원우(인천대·호주 투자운용사) 씨 등이 현장학습을 통해 해외 현지에 |
|
취업했다. |
|
- source_sentence: 백만장자들이 가장 많이 해외로 유출된 국가는? |
|
sentences: |
|
- 지난 10년간 백만장자들이 가장 살고 싶어한 나라는 어디일까. 영국의 컨설팅기업 ‘뉴월드웰스’가 발표한 보고서에 따르면 2003~2013년 |
|
가장 많은 백만장자가 이주한 곳은 영국이었다. ‘백만장자’의 기준은 주거용 주택을 제외하고 최소 100만달러(약 10억7000만원) 이상 보유한 |
|
사람을 뜻한다. 이 시기 영국으로 순유입된 백만장자 수는 11만4100명이었다. 2위를 차지한 싱가포르(4만5000명)의 두 배에 달한다. |
|
씨티그룹이 실시한 별도 설문에서 백만장자들은 경제적 활동, 삶의 질, 우수한 교육 및 주택 여건, 사회적 안전, 신변 보호 등에서 런던을 선호한다고 |
|
답했다. 싱가포르는 안전한 환경과 세금우대 정책 때문에 백만장자의 선호도가 높은 것으로 나타났다. 미국(4만2400명)과 호주(2만2200명), |
|
홍콩(1만9700명) 등이 뒤를 이었다. 같은 기간 중국에선 7만6200명의 백만장자가 빠져나갔다. 중국은 스모그 등 환경 오염이 심해지고 |
|
‘부패와의 전쟁’이 선포되면서 부유층이 해외로 빠져나가는 사례가 늘고 있다. 이들은 생활 환경이 비슷한 홍콩, 싱가포르 등으로의 이주를 선호하는 |
|
것으로 나타났다. 인도에서도 4만3400명의 백만장자가 빠져나갔다. 이어 프랑스(3만1700명), 이탈리아(1만8600명), 러시아(1만4000명) |
|
등의 순이었다. |
|
- "고조선의 도읍지는 여러 차례 이동한 것으로 기록되어 있다. 《삼국유사》는 《고기》를 인용하여, 단군왕검이 처음에는 평양성에 도읍을 정하였으나\ |
|
\ 이후 백악산아사달로 옮겨서 1천 5백 년간 나라를 다스렸으며, 이후 주나라 때 기자가 조선왕에 책봉되자, 단군은 장당경으로 옮겼다가 뒤에\ |
|
\ 아사달로 돌아왔다고 하였다. 조선민주주의인민공화국은 1970년대 이전까지 고조선의 도읍지를 랴오닝성이라 주장하였으나, 주체사상의 강화 이후에는\ |
|
\ 오늘날의 평양시가 고조선의 도읍지라고 주장하면서 단군릉이 평양시에 있다는 점을 내세우고 있다. 이러한 조선민주주의인민공화국 역사학의 입장\ |
|
\ 변화는 정치적 영향에 따른 것이라 비판된다 한편 윤내현은 고조선의 도읍지 이동이 총 5차례라고 주장하며 그 위치를 모두 비정하는 연구를\ |
|
\ 하기도 하였다. \n\n대한민국 역사학계에서 지배적인 학설인 중심지 이동설에 따르면 고조선은 초기에 랴오둥 반도 지역을 중심으로 발전하다가\ |
|
\ 기원전 3세기 무렵 연나라의 침입을 받아 영토를 대거 상실하고 평양 일대로 중심지가 이동하였다고 한다. 고조선의 마지막 왕조인 위만조선의\ |
|
\ 도읍지인 왕검성 오늘날 조선민주주의인민공화국의 평양시라는 견해가 지배적이며, 중국의 랴오닝성 지역에 있었다는 소수설도 있다. 기원전 108년\ |
|
\ 전한 무제의 공격을 받아 왕검성이 함락됨으로써 고조선이 멸망했다. 왕검성이 있던 곳에는 낙랑군이 설치되어 이후 수세기 동안 중국과 한반도의\ |
|
\ 중계무역 기지의 역할을 했다." |
|
- 전국 최대 변호사 밀집지역인 서울 서초동 법조타운에서 일해온 홍승권 변호사(30·변호사시험 1회)는 다음달 서울 약수동으로 사무실을 옮길 예정이다. |
|
법원과 검찰청이 있는 동네에서 아파트 단지가 많고 중소기업도 더러 있는 곳으로 이사를 결정한 것이다. 법조타운 밖으로 나가 ‘생활밀착형 수요’를 |
|
개척하겠다는 생각에서다. 홍 변호사는 “집 또는 회사와 가까운 곳에서 법률 상담을 받고자 하는 수요가 있다고 보고 이전을 결심했다”며 “사무실이 |
|
지역주민의 눈에 많이 띄어 인지도가 높아지면 인근 시장을 선점할 수 있을 것”이라고 기대했다.일감을 찾아 법원 주변 등 법조타운으로 몰려 들었다가 |
|
상가나 주거지역 등으로 빠져 나가는 ‘유턴 변호사’가 늘어나고 있다. 얼마 전까지만 해도 변호사들은 법원·검찰청 인근에서 사무실을 여는 게 |
|
보통이었다. 그러나 이런 관행을 깨고 실리를 따라 주거지역이나 오피스지역에서 사무실을 여는 사례가 많아지고 있다. 전국 변호사 수가 2만명을 |
|
넘어서는 등 업계 경쟁이 심해진 게 변호사 유턴 현상의 주된 배경이다. 번화가에 있는 법조타운보다 외곽 지역에 있으면 사무실 임차료 등 비용을 |
|
아낄 수 있다는 점도 한몫했다. 홍 변호사는 사무실 이전으로 서초동에서 월 150만원씩 내던 사무실 임차료를 70만원으로 줄일 수 있다.김한규 |
|
서울지방변호사회 부회장은 “변호사단체에 등록 신고를 할 때 법조타운이 아닌 곳을 사무실 주소지로 쓰는 변호사가 최근 들어 크게 늘었다”고 전했다. |
|
10년차 변호사 A씨는 “소송 의뢰인은 길을 가다 편의점에 들르듯 변호사 사무실에 오는 게 아니라 대부분 소개를 받는 등 미리 알아보고 특정 |
|
사무실을 찾아온다”며 “굳이 서초동 법원 앞에 있을 필요가 없다는 점에 다들 공감하는 분위기”라고 말했다. A씨는 “선뜻 이전을 결심하지 못하는 |
|
사람도 다른 변호사의 이전 경험담에 관심을 기울이며 고민하는 걸 많이 봤다”고 전했다.서울을 벗어나 아예 지방으로 옮기는 변호사도 있다. 김재윤 |
|
변호사(35·사법연수원 42기)는 지난 3월 서초동에서 전남 여수시로 사무실을 옮겼다. 여수는 전남에서 경제 규모가 제일 크고 인구도 29만명으로 |
|
많은 편이지만 올해 초까지만 해도 변호사는 3명이 고작이었다. 이 때문에 여수 시민들은 변호사를 찾을 일이 있으면 가장 가까운 법조타운이 있는 |
|
광주지방법원 순천지원 앞까지 가는 일이 많았다. 그러나 김 변호사가 들어온 뒤 3명이 더 따라들어와 올해 여수지역 변호사 수가 7명으로 늘었다. |
|
김 변호사는 “사무실을 옮긴 뒤 여수 지역주민의 법률 수요를 잡는 데 어느 정도 성공했다”며 “지금은 서울에 있을 때보다 세 배 이상 많은 |
|
수입을 올리고 있다”고 말했다. |
|
- source_sentence: '''탄소 없는 섬'' 프로젝트로 인해 사라지는 직업의 개수는?' |
|
sentences: |
|
- 제주특별자치도와 LG그룹이 손잡고 제주도를 ‘탄소 없는 섬’으로 만든다. 2030년까지 필요한 모든 에너지를 신재생에너지로 충당하고 모든 자동차를 |
|
전기자동차로 대체키로 했다. 이를 위해 3조원 규모 특수목적회사(SPC)를 내년 중 설립하기로 했다. “15년내 신재생에너지 비율 100%”원희룡 |
|
제주지사와 하현회 (주)LG 사장은 26일 제주도청에서 ‘글로벌 에코 플랫폼 제주’ 추진을 위한 업무협약(MOU·사진)을 맺었다. 글로벌 에코 |
|
플랫폼은 제주를 탄소 없이 신재생에너지로만 운영되는 섬으로 만들기 위한 시행방안이다.핵심은 크게 두 가지다. 2030년까지 신재생에너지 발전 |
|
비율을 최대 100%로 끌어올리는 것이 첫 번째다. 역시 2030년까지 도내 모든 자동차를 전기자동차로 바꾸는 것이 두 번째다.제주도와 LG그룹은 |
|
현재 210㎿ 정도인 풍력·태양광 등 신재생에너지 발전 용량을 2030년까지 3210㎿ 수준으로 늘릴 계획이다. 전기를 저장했다가 필요할 때 |
|
꺼내 쓸 수 있게 해주는 에너지저장장치(ESS)도 2030년까지 1300㎿ 규모로 설치한다. 이를 통해 현재 13% 정도인 도내 신재생에너지 |
|
발전 비율을 2030년까지 최대 100%(최소 85% 이상)로 끌어올릴 예정이다.제주 내 전기자동차는 현재 852대다. 이를 2030년까지 |
|
약 37만7000대로 늘린다는 계획이다. 지금은 79개인 전기자동차 충전소도 1만5000개 수준으로 늘리기로 했다. 이 같은 인프라를 활용해 |
|
전기차에 남은 전력을 다시 판매하는 ‘V2G(vehicle to grid)’ 같은 신사업도 추진할 방침이다.여기에 필요한 자금을 충당하기 위해 |
|
내년 중 3조원 규모 SPC를 세울 계획이다. SPC는 제주도와 LG그룹이 주축이 되고 한국전력, 전기자동차업체 등이 참여할 예정이다. 가능한 |
|
한 민간자본의 참여를 늘리고 정부 지분은 최소화한다는 게 제주도와 LG그룹의 계획이다. SPC는 사업을 통해 발생하는 수익의 일부분을 제주에 |
|
재투자하기로 했다. 이 같은 방식으로 총 6조원 이상을 제주 신재생에너지산업에 투자한다는 방침이다.LG그룹 신재생에너지 역량 총동원LG그룹은 |
|
제주를 신재생에너지사업의 ‘시범 시장’으로 적극 활용할 계획이다. 신재생에너지는 자동차부품산업과 함께 LG그룹이 추진하고 있는 양대 미래 신사업이다. |
|
LG전자는 태양광 패널 등을 공급하게 된다. LG화학에서 ESS용 배터리를 납품받아 시스템을 구축하는 역할도 맡는다. 건물의 전력을 효율적으로 |
|
사용하게 해주는 ‘빌딩관리시스템(BMS)’도 구축한다. LG화학은 전기자동차와 ESS에 2차전지를 공급하게 된다. 제주도는 ‘탄소 없는 섬’ |
|
프로젝트를 통해 도내에 5만개 이상의 일자리가 창출될 것으로 기대하고 있다. 원 지사는 “세계 1위의 2차전지 기술력을 갖춘 LG그룹은 제주를 |
|
탄소 없는 섬으로 만들기 위한 최적의 파트너”라고 말했다.하 사장은 “글로벌 에코 플랫폼 제주는 창조경제의 전형적인 모델로, IT와 에너지 |
|
신기술을 합한 혁신적인 솔루션으로 추진할 것”이라고 설명했다. |
|
- 컴퓨터 해킹으로 낙찰가를 조작해 지방자치단체 관급 공사를 불법 낙찰받아온 일당이 검찰에 적발됐다. 이들은 지자체재무담당자(재무관) PC에 USB(이동식메모리장치)를 |
|
꽂아 악성 프로그램을 직접 심는 대담한 수법으로 30여건의 공사를 따냈다. 서울중앙지방검찰청 첨단범죄수사2부(부장검사 김석재)는 해킹을 통해 |
|
공사 낙찰 하한가를 조작한 혐의(컴퓨터 등 사용사기) 등으로 프로그램 개발팀 운영자 김모씨(52)와 공사브로커 오모씨(55), 건설업자 김모씨(55) |
|
등 10명을 구속 기소하고 15명을 불구속 기소했다고 4일 밝혔다. 이들이 조작한 것은 2002년 조달청이 도입한 관급공사 전자입찰 시스템인 |
|
‘국가종합전자조달(나라장터)’의 입찰 정보다. 이 입찰 시스템은 조달청과 발주처의 재무담당 직원 PC가 암호화된 낙찰 예정가격(예가) 15개를 |
|
임의로 만들면 입찰 업체들이 이를 무작위로 2개씩 추첨하는 방식이다. 이 중 가장 많이 나온 4개를 평균내 낙찰 하한가를 정하고 이에 가까운 |
|
가격을 써내는 업체가 낙찰받는다. 모든 정보가 암호화돼 사전 입찰·담합이 어렵고 낙찰가를 예상할 수 없어 업계에선 ‘로또’로 통해왔다는 게 |
|
검찰의 설명이다. 그러나 이들은 나라장터 시스템보다 상대적으로 보안이 허술한 지자체 재무관의 PC를 공략했다. 평소 관청의 재무담당 직원과 |
|
안면이 있는 건설업자 등이 재무관의 PC를 빌려 쓰는 것처럼 위장해 USB로 프로그램을 심은 것. 또 200여개의 경쟁 건설업체에도 입찰 참고자료를 |
|
보내는 것처럼 피싱 이메일을 보내 같은 프로그램을 설치했다.검찰 관계자는 “15개 예가 중 자신들이 고른 금액으로 낙찰 하한가를 바꿔치기 해 |
|
조달청 서버로 전송하는 프로그램”이라며 “조작한 낙찰 하한가보다 적게는 수십원에서 많게는 1만원 정도 높은 금액을 써내 원하는 공사를 따내왔다”고 |
|
설명했다. 2007~2012년 사이 총 20곳이 31건(낙찰가 기준 291억원)의 공사를 이 같은 방식으로 낙찰받아왔다고 검찰은 밝혔다. |
|
봉화군을 비롯해 대부분 경북권에서 적발 됐으며 서울 성북구청에서 발주한 2건도 있다. 일부 업체는 프로그램 개발 과정에 자금을 대거나 개발자 |
|
급여를 주기도 한 것으로 드러났다. |
|
- '547년 2월에 벨리사리우스가 돌아왔을때의 로마는 황폐속에 버려진것과 같았다. 성벽복구부터 시작하여 재건을 시도했으나 황제는 남부 이탈리아에서 |
|
고트족을 몰아내라고 명하였다. 548년이 되자 황제는 벨리사리우스를 콘스탄티노폴로 소환한후 한직에서 머물도록 하였다. 벨리사리우스가 떠난 이탈리아는 |
|
다시 동고트족의 세상이 되어갔다. 황제는 자신의 측근이자 환관인 나르세스를 사령관으로 임명하여 이탈리아 정복전쟁을 마무리 짓도록 했다. |
|
|
|
|
|
552년 타기나이의 전투에서 토틸라가 전사하면서 동고트족의 세력이 무너지기 시작했다. 553년이 되자 나머지 잔당들이 전멸하며 비잔틴이 이탈리아를 |
|
완전히 점령하였다. 그러나 535년부터 553년까지 18년동안이나 진행된 전쟁으로 이탈리아 반도는 황폐화되었다. |
|
|
|
|
|
황제 유스티니아누스 1세는 548년에 황후 테오도라가 사망한후에 종교문제에만 집착하며 통치에 소홀했다. 아울러 비잔틴 제국의 관리들은 기본적인 |
|
치안유지나 해적의 약탈에 대한 적절한 대응등 행정 서비스에는 무관심한 채 백성들로부터 세금만 뜯어가는 무능력함을 들어내었다. 이런 일들은 황제 |
|
유스티니아누스 1세가 사망한이후에도 지속되었다. 그래서 북아프라카,중근동,이집트, 발칸반도,이탈리아에서 백성들의 원성이 드높았으며 7세기말에 |
|
이교도인 이슬람군이 침공하자 이들을 해방군으로 환영할 정도였다.' |
|
- source_sentence: 박종철이 검찰총장직에서 물러나는데 결정적 역할을 한 제도는? |
|
sentences: |
|
- 경기 침체로 올 들어 국세가 10조원 가까이 줄어든 가운데 징수액이 큰 주요 세목 가운데 종합소득세 세수만 유일하게 늘고 있어 그 배경에 관심이 |
|
쏠리고 있다. 개인사업자, 근로 외 소득이 있는 근로자 등이 주로 내는 종합소득세는 경기 영향을 많이 받는 데다 부가가치세 주세 법인세 등의 |
|
세수와 비슷한 흐름을 보이게 마련인데, 유독 올해만 종합소득세가 따로 움직이고 있는 것이다. 국세청 직원들이 ‘종합소득세 미스터리’라고 부를 |
|
정도다. 서울의 한 세무사는 “종합소득세는 한 해 세수의 가늠자라고 할 정도로 세수 흐름을 가장 잘 반영하는 항목 중 하나”라며 “올해처럼 |
|
종합소득세만 늘어나는 것은 매우 이례적”이라고 말했다.○작년보다 5천억 이상 더 걷힐 듯국세청 고위 관계자는 16일 “종합소득세 성실신고확인제 |
|
대상(수입 규모가 일정 금액 이상인 개인사업자)의 납부 기한인 지난 1일까지 종합소득세 신고금액은 작년보다 소폭 늘어난 5조원 정도로 잠정 |
|
집계됐다”고 밝혔다. 이 같은 추세면 올해 세수는 작년(9조9378억원)보다 5000억~6000억원 많은 10조5000억원에 달할 것이라는 |
|
설명이다. 이 같은 증가세는 글로벌 금융위기 영향으로 2010년 종합소득세가 2009년(6조8150억원)보다 줄어든 6조8062억원에 그쳤던 |
|
것과도 대조적이다. 올 들어 지난 5월까지 누적 종합소득세도 지난해 3조8588억원보다 4650억원(12.1%) 늘어난 4조3238억원에 달했다. |
|
반면 근로소득세 등 다른 소득세는 지난해 15조5225억원에서 올 5월 15조3904억원으로 감소했다. 법인세 교통세 부가세 교육세 증권거래세 |
|
등 다른 세목도 마찬가지다. 법인세는 올 5월 19조9378억원이 걷히는 데 그쳐 작년 같은 기간에 비해 17.89%나 적었다. 부가세도 작년 |
|
같은 기간보다 7.22% 줄었고 교통세는 11.62%, 교육세 14.96%, 증권거래세는 무려 24.85%나 급감했다. 불황으로 위스키 등 |
|
고가의 술 판매가 감소하면서 주세도 11.06%나 줄었다. 개별소비세와 상속·증여세는 각각 2.10%, 4.29% 감소한 것으로 나타났다.○세무조사 |
|
피하고 보자?왜 종합소득세만 늘었는지를 놓고 세정당국과 세무업계에서도 해석이 분분하다. 일부에선 지난해 경기 불황에도 자영업자 수가 늘어난 |
|
데다 경기 불황이 개인사업자의 소득에 영향을 미치는 데 시간이 걸린다는 점을 지적하고 있다. 실제로 올해 종합소득세 납부 대상자는 611만명으로 |
|
지난해(575만명)보다 36만명(6.26%) 늘었다. 하지만 이 분석은 설득력이 없다는 반론도 있다. 납부 대상자는 작년보다 늘었지만 실제로 |
|
낸 사람은 작년과 큰 차이가 없기 때문이다. 경기 불황이 어느 정도의 시간을 지나 개인사업자의 소득에 영향을 미치는지도 검증된 바가 없다. |
|
국세청 내부에선 올 들어 지하경제 양성화를 위해 불성실 납세에 대한 세무조사 확대 의지를 거듭 밝힌 것이 효과를 보고 있다는 관측을 내놓고 |
|
있다. 2011년 현재 연수입 5억원 이상 개인사업자의 소득탈루율이 40%에 달했던 점을 감안하면 세무조사 가능성을 우려한 고소득 사업자들이 |
|
평소보다 소득신고액을 높였을 여지는 충분하다는 설명이다. 일선 세무사들도 고객에게 “올해만큼은 성실신고를 하는 게 좋겠다”는 권유를 많이 한 |
|
것으로 전해지고 있다. 실제 국세청 관계자는 “신고 내역을 보면 지난해와 달리 비용 항목을 많이 줄인 경우가 꽤 된다”며 “조세 회피에 대한 |
|
사회의 부정적 분위기 등이 소득세 신고에 영향을 미친 것 같다”고 말했다. |
|
- '룽산 문화는 산둥성 동부의 장추 시 룽산진에 있는 청즈아이(城子崖)에서 1928년에 유적이 출토되어 1930년 이후 본격적으로 발굴되었다. |
|
룽산 문화의 특징은 고온으로 구운 회도, 흑도를 중심으로 한 높은 도기 기술에 있으며, 그릇이 얇고 균일하여 녹로가 사용되고 있었음을 추측할 |
|
수 있다. 특히 란각도(卵殻陶)로 불리는 것은 그릇을 알의 껍질처럼 얇게(0.5 – 1 mm) 만든 흑도의 도기로, 한층 더 연마해 검은 윤기를 |
|
내고 세밀한 문양을 조각한 것이다. 이것은 황하 유역뿐만 아니라 장강 유역이나 중국의 남부 해안 부근에서도 발견되고 있어 룽산 문화의 확산을 |
|
알려주고 있다. 한편으로 장강 중류 지역의 취자링 문화도 회도, 흑도를 특징으로 하는 문화로 허난성 부근에까지 영향을 끼치고 있어 룽산 문화가 |
|
장강 부근의 문화의 영향을 받았을 가능성도 있다. |
|
|
|
|
|
도기 생산 효율의 상승은 출토하는 도기의 수나 종류가 전대 문화에 비해 대폭 증대되었던 것에서도 볼 수 있어 솥이나 역(鬲, 삼족 솥), 규(鬹, |
|
세발달린 가마솥), 높은 자루 잔(高柄杯) 등, 조리기나 식기로서 사용된 다양한 흑도, 회도의 도기가 출토되었다. |
|
|
|
|
|
도기뿐 아니라 돌칼(石包丁) 등 석기나 골기 등의 무기나 도구, 비취 등의 구슬도 출토되었다. 룽산 문화 후기에는 청동기도 출현하였고, 은대, |
|
주대(또눈 은나라 이전의 하나라)의 청동기 시대로 가는 과도기였다고 생각할 수 있다. |
|
|
|
|
|
룽산 문화의 사회에서 나타난 가장 큰 변화는 도시의 출현이다. 초기의 주거 형태는 수혈식 주거였지만, 곧 기둥이나 벽을 세운 가옥이 출현했다. |
|
또 흙을 다져 만든 성벽이나 굴이 출토되고 있어, 특히 샨시성 샹펀 현 타오스 향(陶寺郷)의 남쪽에서 발견된 샨시 룽산문화의 유적, 타오시 |
|
유적(陶寺遺跡, 기원 전 2500년 - 기원 전 1900년)은 룽산 문화의 도시 유적 중에서도 가장 큰 것이다. |
|
|
|
|
|
농업이나 수공업의 발달도 특징이다. 샨시성의 웨이허 주변에서는 농업과 목축업이 양사오 문화의 시기에 비해 크게 발전하였다. 쌀의 재배도 시작되었고, |
|
누에를 기르는 양잠업의 존재와 소규모의 견직물 생산도 확인되고 있다. |
|
|
|
|
|
동물의 견갑골을 사용한 점술이나 무술(巫術)의 흔적도 엿볼 수 있어 종교도 있었던 것으로 보인다. 농업 등의 발달로 인한 잉여 생산이 생기고, |
|
사유재산이 출현하여 사회의 계층화가 진행되었고, 부권제 사회나 계급 사회가 탄생했다. 흑색 토기에서는 회전대를 사용하고 광택을 낸 것을 알수있으므로 |
|
제작기술도 발전하였다는 것을 알수있다 |
|
|
|
|
|
중국의 신석기 시대의 인구는 룽산 문화에서 절정을 이루었지만, 룽산 문화의 말기에는 인구가 격감했다. 동시에 분묘의 부장품에서 고품질의 란각도, |
|
흑도 등도 볼 수 없게 되었다.' |
|
- "1937년 대구직할시에서 태어나 경북고등학교와 1961년 서울대학교 법학과를 졸업하고 1962년 제15회 고등고시 사법과에 합격하여 1964년\ |
|
\ 대구지방검찰청 검사에 임용되었다. 고등고시 합격이 늦었지만 법무부와 검찰 내에서 요직을 거쳤던 박종철은 차분하고 자상한 성격으로 상하한게\ |
|
\ 신망이 두터우며 특히 \"인간성으로 성장한 사람\"이라는 말을 많이 들었다. \n\n1993년 3월에 딸의 이중 국적 논란으로 법무부 장관에서\ |
|
\ 물러난 박희태 후임으로 자리를 옮긴 김두희에 이어 제25대 검찰총장에 취임하였던 박종철은 1993년 3월과 9월에 있었던 공직자 재산공개에서\ |
|
\ 19억여원의 재산을 등록하면서 투기지역으로 알려진 경기도 용인군 모현면 등지에 임야 5900여평의 부동산을 소유한 것으로 드러나 부동산\ |
|
\ 투기 의혹이 제기되어 검찰총장에 취임한지 6개월이 지난 1993년 9월 13일에 \"그동안 검찰이 벌여온 사정 활동과 자기 쇄신의 노력에도\ |
|
\ 불구하고 국민들이 기대하는 바에 미치지 못함을 유감스럽게 생각해왔다\"며 \"모든 것이 검찰 총수인 본인이 부덕한 소치로 생각되어 책임을\ |
|
\ 통감하고 검찰총장직에서 물러난다\"고 하면서 법무부 장관에게 사표를 제출고 김영삼 대통령은 당일 수리했다. \n\n검찰총장을 마지막으로\ |
|
\ 공직에서 물러난 박종철은 1998년 4월에 대검찰청 강력부장을 역임했던 사법시험 제2회 출신의 최신석 등과 법무법인 일원을 창립하면서 대표\ |
|
\ 변호사에 취임하였다. 전직 검찰총장으로서 최초의 로펌 설립이다." |
|
- source_sentence: 올 가을 처분되는 오피스텔은 몇 실인가? |
|
sentences: |
|
- 공급과잉 논란으로 분양침체에 빠졌던 주거용 오피스텔 시장에 최근 수요자들의 관심이 쏠리고 있다. ‘8·28 전·월세 대책’에서 오피스텔을 근로자·서민 |
|
주택구입자금의 싼 이자로 대출받아 매입할 수 있도록 했기 때문이다. 또한 올 들어 신규 공급이 대폭 줄면서 미분양 물량 해소가 빨라졌고, 기존 |
|
오피스텔의 수익률이 5%를 웃도는 등 시장 전체가 회복 조짐을 보이고 있는 것도 한 요인이다.○아파트 같은 대출 지원과 세제혜택16일 부동산업계에 |
|
따르면 최근 정부가 오피스텔에 다양한 세제 및 대출 혜택을 주기로 해 관심이 높아지고 있다. 지난해 4월부터 오피스텔에 대한 매입 임대사업자 |
|
등록이 허용된 데다 ‘4·1 부동산 대책’에 따라 연말까지 오피스텔을 구입하면 향후 5년간 양도세가 면제된다.‘8·28 대책’에서는 연 2.8~3.6% |
|
수준인 국민주택기금 지원 대상에 6억원 이하 주거용 오피스텔을 포함시켰다. 다만 부부합산 연 소득이 6000만원 이하여야 하고, 최대 대출금은 |
|
2억원까지다. 소형 오피스텔 임대사업자의 임대소득에 대한 소득세·법인세 20% 감면도 추진된다. 기준시가 3억원 이하의 소형 주거용 오피스텔 |
|
3실 이상을 5년 이상 임대받을 때 혜택을 볼 수 있다.분양마케팅업체인 반더펠트의 호한철 대표는 “서울 마포 광화문 강남 구로와 분당 정자동 |
|
등 업무 밀집지역 인근에서는 주거용 오피스텔 수요가 꾸준하다”며 “최근 정부 대책으로 오피스텔 구입자금 지원 혜택 등이 늘어나며 실수요자나 |
|
퇴직자들을 중심으로 분양 문의전화가 증가하고 있다”고 말했다.○올 가을 신규 분양 크게 늘어가을 분양 성수기를 맞아 주거용 오피스텔도 잇따라 |
|
선보인다. 전국적으로 10여개 단지, 7000실을 웃도는 규모다. 부동산 개발업체인 파크하비오는 다음달 서울 문정동에서 복합단지 ‘송파 파크 |
|
하비오’를 분양한다. 오피스텔이 3527실 규모로 서울 지하철 8호선 장지역이 걸어서 3분 거리다.부동산 개발업체인 엠디엠도 같은 달 경기 |
|
수원 광교신도시 업무 8블록에서 647실 규모의 ‘광교 레이크파크’를 공급한다. 35·40층 2개동 규모로 광교호수공원(204만㎡)을 내려다볼 |
|
수 있는 게 매력이다. 모든 가구가 남향 3개면 개방 형태로 설계됐다. 입주자에게 클럽라운지에서 365일 식사가 제공되는 이색 서비스도 이뤄진다.서울 |
|
강남권, 경기 성남시 정자동과 판교신도시 등에 있는 기존 오피스텔도 투자문의가 이어지고 있다. 지난달부터 임대사업을 염두에 둔 투자자들이 매입에 |
|
나서면서 거래가 늘고 있다.부동산114에 따르면 서울지역 오피스텔의 연간 평균 임대수익률은 지난달 기준으로 5.45% 수준이다. 경희궁의아침, |
|
스페이스본 등 종로지역 오피스텔의 수익률은 연 10%에 이르는 것으로 조사됐다. |
|
- “구글 검색에서 비슷한 주제의 논문이 있으면 가차 없이 떨어뜨리더라고요. 이처럼 엄격하게 새 아이디어만 평가하는 곳은 처음입니다.” 최근 삼성미래기술육성재단 |
|
연구과제에 응모한 대학교수는 이렇게 말했다.삼성미래기술육성재단(이사장 국양 서울대 물리천문학부 교수·사진)은 지난해 8월 연구진흥 목적의 공익 |
|
연구재단으로 출범했으며, 삼성전자가 5000억원을 내놨다. 수리과학, 물리, 화학, 생명과학 분야 및 융복합 분야에서 창의적이고 도전적인 연구과제를 |
|
선정해 연구부터 특허출원까지 전 과정을 지원한다.재단은 설립 취지에 따라 연구과제를 심사할 때 ‘독창성’을 최우선적으로 들여다본다. 응모자의 |
|
이름과 소속은 중요하지 않다. 재단 관계자는 “현재의 틀을 허무는 도전적인 과제를 선정한다는 방침”이라고 설명했다. 세계 유일 또는 세계 최고의 |
|
독창적인 프런티어 연구와 실패를 두려워하지 않고 과감히 도전하는 연구를 적극 지원하기 위해서다.학계에서는 이 같은 연구과제 평가 및 지원 방법이 |
|
미국의 고등방위연구계획국(DARPA)이나 국가과학재단(NSF)과 비슷하다고 말한다. 이들 기관은 미국 정부 차원에서 10~20년 뒤 먹거리를 |
|
찾는 일을 하고 있다. 삼성미래기술육성재단이 이처럼 엄격한 기준에 따라 연구과제를 뽑다 보니 참신하고 혁신적인 주제가 많이 나온다. 이원재 |
|
서울대 교수의 ‘장뇌축(gut-brain-axis) 연구’가 대표적이다. 장이 두뇌와 미주신경을 통해 소통하면서 사실상 ‘제2 두뇌’ 역할을 |
|
한다는 새로운 이론이다. 층간소음을 혁신적으로 줄여줄 수 있는 ‘스큐메타포러스’ 소재(김윤영 서울대 교수 연구)도 재단 연구과제 선정을 통해 |
|
소개됐다. |
|
- 삼성물산과 현대건설은 서울 고덕동 시영아파트를 재건축한 ‘고덕 래미안 힐스테이트’ 분양을 앞두고 그룹 임직원을 예비 수요자로 잡기 위해 적극 |
|
나서고 있다. 양사는 지난달 29·30일 서울 문정동 래미안 갤러리에서 삼성·현대차그룹 임직원 2800여명을 초청해 ‘분양 설명회’(사진)를 |
|
열었다. 상일동에 본사를 둔 삼성엔지니어링 직원 김모씨(38)는 “직장과 가까우면서도 교통과 교육 등 생활 편의시설이 좋아 청약할 예정”이라고 |
|
말했다. 삼성물산은 앞서 27·28일에도 각각 서울 강북과 강남에서 삼성물산 삼성생명 직원을 대상으로 분양 설명회를 열었다.2일 주택업계에 |
|
따르면 모델하우스 개장에 앞서 잠재 고객을 대상으로 하는 사전 분양 마케팅이 한층 다양해지고 있다. 분양시장 분위기에 휘둘리지 않는 지역 실수요자들을 |
|
공략하기 위해서다. 오는 4일 모델하우스를 여는 GS건설 ‘역삼 자이’는 이미 지난해 말부터 관심 소비자를 대상으로 ‘찾아가는 상담 서비스’를 |
|
운영 중이다. 개나리 6차를 재건축하는 이 단지는 분양가가 3.3㎡당 3000만원 전후인 고가 아파트다. 고소득 전문직 종사자들이 주요 잠재 |
|
고객이다. 구매력은 있지만 모델하우스를 찾을 시간이 없는 전문직 종사자들을 고객으로 확보하기 위해 직접 방문해 상담을 벌인다. 경기 하남 미사지구에서 |
|
분양을 앞둔 포스코건설 ‘더샵 리버포레’도 홈페이지를 통해 관심고객으로 등록한 예비 청약자들에게 최신 LED TV 등을 선물로 제공하는 등 |
|
사전 마케팅에 한창이다. |
|
model-index: |
|
- name: SentenceTransformer based on Kerneld/klue-roberta-base-klue-sts |
|
results: |
|
- task: |
|
type: semantic-similarity |
|
name: Semantic Similarity |
|
dataset: |
|
name: Unknown |
|
type: unknown |
|
metrics: |
|
- type: pearson_cosine |
|
value: 0.8126195756472175 |
|
name: Pearson Cosine |
|
- type: spearman_cosine |
|
value: 0.8198976037040269 |
|
name: Spearman Cosine |
|
- type: pearson_manhattan |
|
value: 0.7642085472769107 |
|
name: Pearson Manhattan |
|
- type: spearman_manhattan |
|
value: 0.7843446052387523 |
|
name: Spearman Manhattan |
|
- type: pearson_euclidean |
|
value: 0.7619389784108498 |
|
name: Pearson Euclidean |
|
- type: spearman_euclidean |
|
value: 0.7826892530796743 |
|
name: Spearman Euclidean |
|
- type: pearson_dot |
|
value: 0.7933466082215178 |
|
name: Pearson Dot |
|
- type: spearman_dot |
|
value: 0.8150607506269372 |
|
name: Spearman Dot |
|
- type: pearson_max |
|
value: 0.8126195756472175 |
|
name: Pearson Max |
|
- type: spearman_max |
|
value: 0.8198976037040269 |
|
name: Spearman Max |
|
--- |
|
|
|
# SentenceTransformer based on Kerneld/klue-roberta-base-klue-sts |
|
|
|
This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [Kerneld/klue-roberta-base-klue-sts](https://huggingface.co/Kerneld/klue-roberta-base-klue-sts). It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more. |
|
|
|
## Model Details |
|
|
|
### Model Description |
|
- **Model Type:** Sentence Transformer |
|
- **Base model:** [Kerneld/klue-roberta-base-klue-sts](https://huggingface.co/Kerneld/klue-roberta-base-klue-sts) <!-- at revision ab23b26f49367384954ec980ce849944828f97b7 --> |
|
- **Maximum Sequence Length:** 512 tokens |
|
- **Output Dimensionality:** 768 tokens |
|
- **Similarity Function:** Cosine Similarity |
|
<!-- - **Training Dataset:** Unknown --> |
|
<!-- - **Language:** Unknown --> |
|
<!-- - **License:** Unknown --> |
|
|
|
### Model Sources |
|
|
|
- **Documentation:** [Sentence Transformers Documentation](https://sbert.net) |
|
- **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers) |
|
- **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers) |
|
|
|
### Full Model Architecture |
|
|
|
``` |
|
SentenceTransformer( |
|
(0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: RobertaModel |
|
(1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True}) |
|
) |
|
``` |
|
|
|
## Usage |
|
|
|
### Direct Usage (Sentence Transformers) |
|
|
|
First install the Sentence Transformers library: |
|
|
|
```bash |
|
pip install -U sentence-transformers |
|
``` |
|
|
|
Then you can load this model and run inference. |
|
```python |
|
from sentence_transformers import SentenceTransformer |
|
|
|
# Download from the 🤗 Hub |
|
model = SentenceTransformer("sentence_transformers_model_id") |
|
# Run inference |
|
sentences = [ |
|
'올 가을 처분되는 오피스텔은 몇 실인가?', |
|
'공급과잉 논란으로 분양침체에 빠졌던 주거용 오피스텔 시장에 최근 수요자들의 관심이 쏠리고 있다. ‘8·28 전·월세 대책’에서 오피스텔을 근로자·서민 주택구입자금의 싼 이자로 대출받아 매입할 수 있도록 했기 때문이다. 또한 올 들어 신규 공급이 대폭 줄면서 미분양 물량 해소가 빨라졌고, 기존 오피스텔의 수익률이 5%를 웃도는 등 시장 전체가 회복 조짐을 보이고 있는 것도 한 요인이다.○아파트 같은 대출 지원과 세제혜택16일 부동산업계에 따르면 최근 정부가 오피스텔에 다양한 세제 및 대출 혜택을 주기로 해 관심이 높아지고 있다. 지난해 4월부터 오피스텔에 대한 매입 임대사업자 등록이 허용된 데다 ‘4·1 부동산 대책’에 따라 연말까지 오피스텔을 구입하면 향후 5년간 양도세가 면제된다.‘8·28 대책’에서는 연 2.8~3.6% 수준인 국민주택기금 지원 대상에 6억원 이하 주거용 오피스텔을 포함시켰다. 다만 부부합산 연 소득이 6000만원 이하여야 하고, 최대 대출금은 2억원까지다. 소형 오피스텔 임대사업자의 임대소득에 대한 소득세·법인세 20% 감면도 추진된다. 기준시가 3억원 이하의 소형 주거용 오피스텔 3실 이상을 5년 이상 임대받을 때 혜택을 볼 수 있다.분양마케팅업체인 반더펠트의 호한철 대표는 “서울 마포 광화문 강남 구로와 분당 정자동 등 업무 밀집지역 인근에서는 주거용 오피스텔 수요가 꾸준하다”며 “최근 정부 대책으로 오피스텔 구입자금 지원 혜택 등이 늘어나며 실수요자나 퇴직자들을 중심으로 분양 문의전화가 증가하고 있다”고 말했다.○올 가을 신규 분양 크게 늘어가을 분양 성수기를 맞아 주거용 오피스텔도 잇따라 선보인다. 전국적으로 10여개 단지, 7000실을 웃도는 규모다. 부동산 개발업체인 파크하비오는 다음달 서울 문정동에서 복합단지 ‘송파 파크 하비오’를 분양한다. 오피스텔이 3527실 규모로 서울 지하철 8호선 장지역이 걸어서 3분 거리다.부동산 개발업체인 엠디엠도 같은 달 경기 수원 광교신도시 업무 8블록에서 647실 규모의 ‘광교 레이크파크’를 공급한다. 35·40층 2개동 규모로 광교호수공원(204만㎡)을 내려다볼 수 있는 게 매력이다. 모든 가구가 남향 3개면 개방 형태로 설계됐다. 입주자에게 클럽라운지에서 365일 식사가 제공되는 이색 서비스도 이뤄진다.서울 강남권, 경기 성남시 정자동과 판교신도시 등에 있는 기존 오피스텔도 투자문의가 이어지고 있다. 지난달부터 임대사업을 염두에 둔 투자자들이 매입에 나서면서 거래가 늘고 있다.부동산114에 따르면 서울지역 오피스텔의 연간 평균 임대수익률은 지난달 기준으로 5.45% 수준이다. 경희궁의아침, 스페이스본 등 종로지역 오피스텔의 수익률은 연 10%에 이르는 것으로 조사됐다.', |
|
'“구글 검색에서 비슷한 주제의 논문이 있으면 가차 없이 떨어뜨리더라고요. 이처럼 엄격하게 새 아이디어만 평가하는 곳은 처음입니다.” 최근 삼성미래기술육성재단 연구과제에 응모한 대학교수는 이렇게 말했다.삼성미래기술육성재단(이사장 국양 서울대 물리천문학부 교수·사진)은 지난해 8월 연구진흥 목적의 공익 연구재단으로 출범했으며, 삼성전자가 5000억원을 내놨다. 수리과학, 물리, 화학, 생명과학 분야 및 융복합 분야에서 창의적이고 도전적인 연구과제를 선정해 연구부터 특허출원까지 전 과정을 지원한다.재단은 설립 취지에 따라 연구과제를 심사할 때 ‘독창성’을 최우선적으로 들여다본다. 응모자의 이름과 소속은 중요하지 않다. 재단 관계자는 “현재의 틀을 허무는 도전적인 과제를 선정한다는 방침”이라고 설명했다. 세계 유일 또는 세계 최고의 독창적인 프런티어 연구와 실패를 두려워하지 않고 과감히 도전하는 연구를 적극 지원하기 위해서다.학계에서는 이 같은 연구과제 평가 및 지원 방법이 미국의 고등방위연구계획국(DARPA)이나 국가과학재단(NSF)과 비슷하다고 말한다. 이들 기관은 미국 정부 차원에서 10~20년 뒤 먹거리를 찾는 일을 하고 있다. 삼성미래기술육성재단이 이처럼 엄격한 기준에 따라 연구과제를 뽑다 보니 참신하고 혁신적인 주제가 많이 나온다. 이원재 서울대 교수의 ‘장뇌축(gut-brain-axis) 연구’가 대표적이다. 장이 두뇌와 미주신경을 통해 소통하면서 사실상 ‘제2 두뇌’ 역할을 한다는 새로운 이론이다. 층간소음을 혁신적으로 줄여줄 수 있는 ‘스큐메타포러스’ 소재(김윤영 서울대 교수 연구)도 재단 연구과제 선정을 통해 소개됐다.', |
|
] |
|
embeddings = model.encode(sentences) |
|
print(embeddings.shape) |
|
# [3, 768] |
|
|
|
# Get the similarity scores for the embeddings |
|
similarities = model.similarity(embeddings, embeddings) |
|
print(similarities.shape) |
|
# [3, 3] |
|
``` |
|
|
|
<!-- |
|
### Direct Usage (Transformers) |
|
|
|
<details><summary>Click to see the direct usage in Transformers</summary> |
|
|
|
</details> |
|
--> |
|
|
|
<!-- |
|
### Downstream Usage (Sentence Transformers) |
|
|
|
You can finetune this model on your own dataset. |
|
|
|
<details><summary>Click to expand</summary> |
|
|
|
</details> |
|
--> |
|
|
|
<!-- |
|
### Out-of-Scope Use |
|
|
|
*List how the model may foreseeably be misused and address what users ought not to do with the model.* |
|
--> |
|
|
|
## Evaluation |
|
|
|
### Metrics |
|
|
|
#### Semantic Similarity |
|
|
|
* Evaluated with [<code>EmbeddingSimilarityEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.EmbeddingSimilarityEvaluator) |
|
|
|
| Metric | Value | |
|
|:-------------------|:-----------| |
|
| pearson_cosine | 0.8126 | |
|
| spearman_cosine | 0.8199 | |
|
| pearson_manhattan | 0.7642 | |
|
| spearman_manhattan | 0.7843 | |
|
| pearson_euclidean | 0.7619 | |
|
| spearman_euclidean | 0.7827 | |
|
| pearson_dot | 0.7933 | |
|
| spearman_dot | 0.8151 | |
|
| pearson_max | 0.8126 | |
|
| **spearman_max** | **0.8199** | |
|
|
|
<!-- |
|
## Bias, Risks and Limitations |
|
|
|
*What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.* |
|
--> |
|
|
|
<!-- |
|
### Recommendations |
|
|
|
*What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.* |
|
--> |
|
|
|
## Training Details |
|
|
|
### Training Dataset |
|
|
|
#### Unnamed Dataset |
|
|
|
|
|
* Size: 17,552 training samples |
|
* Columns: <code>sentence_0</code> and <code>sentence_1</code> |
|
* Approximate statistics based on the first 1000 samples: |
|
| | sentence_0 | sentence_1 | |
|
|:--------|:---------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------| |
|
| type | string | string | |
|
| details | <ul><li>min: 8 tokens</li><li>mean: 17.8 tokens</li><li>max: 36 tokens</li></ul> | <ul><li>min: 241 tokens</li><li>mean: 438.87 tokens</li><li>max: 512 tokens</li></ul> | |
|
* Samples: |
|
| sentence_0 | sentence_1 | |
|
|:----------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------| |
|
| <code>한국콘텐츠진흥원장상을 받은 곳은?</code> | <code>㈜연필과지우개(대표 정일)가 자사의 인기 애니메이션 ‘에그로이’를 인형극으로 제작해 9월부터 관객을 직접 찾아가는 공연 서비스를 시작한다고 밝혔다. ‘에그로이’ 인형극은 언택트 시대를 맞아 방문 공연을 신청한 관객이 있는 곳으로 직접 찾아가 공연하거나 영상을 통해 제공하는 방식으로 제작될 예정이다. 이번 ‘에그로이’ 인형극 기획은 한국과학창의재단의 과학문화바우처 상품 공모 선정을 통해 이루어졌으며, 서울 전지역에서 과학문화바우처를 이용해 신청 가능하다. 작품명 ‘어둠의 비밀을 찾아서’로 명명된 ‘에그로이’ 인형극은 손인형극 형식의 약 50분 공연으로 구성되어 있고, 코로나19로 공연이 불가능한 곳은 USB 영상으로 전달한다. 공연 내용은 7세 이상의 아동을 대상으로 다양한 과학 상식과 원리가 우리 생활에 존재한다는 것을 보여주고, 생활 주변에서 평소 그냥 지나쳤던 것들을 과학적 영감으로 볼 수 있게 지적 호기심을 제공한다. ㈜연필과지우개에서는 과학 원리를 스토리 속의 캐릭터에 공감하면서 몰입해 보고 흥미를 누릴 수 있도록 준비했다고 전했다. 제작진은 총괄 정일 대표와 기획 원승준 이사, 홍보/마케팅 팀장 Albayrak Merve Gul, 미디어팀장 Ochieng Joshua Wera, 연출 김미영, 조연출 송영진, 최윤정, 임장현, 인형극 전문 배우 김미란, 권하은, 이인화, 이지원, 임서연, 예승미, 전가영, 전하영 등이 공연을 한다. ‘에그로이’는 최근 제작 완료를 앞둔 각각 1분 30초 길이인 100편의 애니메이션으로, 귀여운 달걀들과 도마뱀 요리사의 좌충우돌 스토리를 담고 있다. 아직 제작중인 애니메이션이지만 유튜브 등록 2주 만에 글로벌 조회수 100만 회를 넘기는 등 해외에서 벌써 작품성을 인정받아 활발하게 계약이 진행되고 있다. ㈜연필과지우개에서는 ‘에그로이’가 이미 미국, 중국, 대만, 인도, 인도네시아, 베트남, 인도, 체코, 브라질 등 9개 국가와 선계약을 완료했다고 밝혔다. 제작사 ㈜연필과지우개는 캐릭터 기반 콘텐츠 전문 기획 제작사이다. 2018년부터 한국콘텐츠 진흥원 CKL 기업지원센터에 입주해 있으며, 스타트업 리그 한국콘텐츠진흥원장상 수상, 대통령 순방 경제사절단 2회 참가, 아파트 브랜드 대우건설과 키즈카페 완공 등 국내에서도 높은 평가를 받고 있다. ㈜연필과지우개는 이번 인형극 제작을 통해 애니메이션에서 공연, TV인형극, 인형 판매 등으로 파생 상품화를 본격적으로 진행할 예정이다. 9월부터 찾아가는 인형극과 10월부터 OTT용 11분 길이의 52부작 해외 수출용 TV 인형극을 출시할 예정이다. ㈜연필과지우개 정일 대표는 “앞으로도 아동들이 과학 공연으로 과학에 대한 지속적인 관심과 미래 과학자의 꿈을 가질 수 있도록 이번 공연을 기획했다”며, “쎄서미스트리트처럼 전세계인에게 사랑받는 인형극을 제작하는 것을 목표로 하고 있다.”고 말했다.</code> | |
|
| <code>MICE 유치, 개최 활동을 지원하는 기관의 수장 이름은?</code> | <code>부산관광공사(사장 정희준)는 올해 부산의 MICE 산업 성장에 공로가 큰 주요인사 선정, 16일 부산힐튼호텔에서 부산 MICE 앰버서더 어워드 행사를 개최했다. 부산MICE 앰버서더는 ▲대형 국제회의 부산 유치, 개최에 기여한 인사 ▲국내학회·협회 임원 및 국제기구의 회원으로 활발하게 활동하는 인사 ▲국제회의 유치 정보를 부산에 지속적으로 제공하고 기여한 인사로 선정했다. 올해 부산MICE 앰버서더에는 부산대학교 선박해양플랜트기술연구원 백점기 원장을 비롯, 한국국제물류협회 김병진 회장, 창원대학교 신기삼 교수 등 17명이 선정되었다. 올해 앰버서더로 선정된 이들은 부산시, 부산관광공사, 부산지역업계와 힘을 합쳐 2022 세계현미경총회, 2021 아시아-오세아니아 면역학회 총회, 2022 국제내연기관협회 세계총회 등 굵직한 회의들을 부산으로 유치하는 성과를 거두었으며 연간활동을 통해 마이스도시 부산을 전세계에 알리는 데 주요한 역할을 해왔다. 부산MICE 앰버서더로 선정된 인사는 위촉패와 더불어 부산관광공사로부터 MICE유치개최와 관련된 연간 활동을 지원받게 된다. 이날 위촉식 행사에는 부산시 관계자를 비롯해 벡스코, 영화의 전당, 지역PCO, 호텔 등 부산 MICE 관련 유관기관 대표들이 함께 참석해 MICE 앰버서더들과 간담회를 갖고 부산 MICE 발전을 위한 협력방안도 모색하였다.</code> | |
|
| <code>치료에 실패한 혈액암 환자의 수는?</code> | <code>T 세포 기반 차세대 면역 치료제 연구개발 전문 기업 네오이뮨텍은 지난달 자사의 ‘NT-I7’(efineptakin alfa)과 글로벌 제약 기업 로슈(Roche)의 면역관문억제제(PD-L1 저해제) ‘Tecentriq®’(티센트릭, atezolizumab)과의 병용 투여에 대한 공동임상 계약을 체결한 데 이어, 최근 FDA로부터 비소세포폐암(NSCLC) 1차 치료제의 임상2상 계획(IND) 승인을 획득함에 따라, 미국 현지에서 임상2상을 진행할 예정이라고 밝혔다. NT-I7은 네오이뮨텍이 개발 중인 T 세포의 증폭을 유도하는 First-in-Class 차세대 면역 항암제로, 단독 요법의 효능뿐 아니라 기존 항암치료제와 병용 투여 시 치료 효과의 시너지가 기대되는 신약이다. 각종 고형암 및 혈액암, 희귀질환, 감염성 질환 환자에 대한 임상을 계획 또는 진행 중이다. 지난 3년간 머크, 로슈, BMS 등 글로벌 선도기업들이 면역항암제의 효능을 증가시킬 수 있는 주요 파트너로 NT-I7에 주목하고 현재 4건의 병용임상에 대한 계약을 체결하고 임상을 진행하고 있다. 비소세포폐암은 폐암의 80~85%를 차지하고 있으며, 암사망의 주요 원인으로 꼽힌다. 2018년에는 전 세계적으로 약 210만 명의 환자가 비소세포폐암 진단을 받고 이 중 약 176만 명이 사망에 이를 정도로 혁신 치료제 개발이 시급한 질환이다. 네오이뮨텍은 이번 임상2상을 통해 치료 경험이 없는 4기 비소세포폐암 환자들에 대한 NT-I7과 Tecentriq®의 병용 치료 항암효과를 평가함으로써 비소세포폐암 1차 치료제로서의 효능을 검증할 예정이다. 앞선 면역관문억제제와의 병용 투여 임상1상을 통해 확인한 안전성 및 효능 결과를 고려하여 1,200㎍/㎏을 NT-I7의 2상을 위한 권장용량으로 결정했다. 양세환 네오이뮨텍 대표이사는 “Tecentriq®과 NT-I7을 병용하면, Tecentriq®을 단일제제로 사용하는 것보다 치료 효능이 증가할 뿐만 아니라, PD-L1 발현이 낮은 비소세포폐암 환자에게도 더 나은 효능을 제공할 것으로 기대된다”면서 “또한 기존의 화학적 치료를 견디기 어려워 받지 못하는 비소세포폐암 환자들에게 새로운 대안을 제시함으로써, 치료 혜택을 받을 수 있는 대상 환자도 더욱 확대될 것으로 기대된다”고 설명했다. 이어 “특히 이번 임상2상은 2차, 3차 치료 옵션이 아닌 1차 치료제로서의 안전성과 효능을 입증하기 위한 과정으로서 의미가 더욱 크다”고 강조했다.</code> | |
|
* Loss: [<code>MultipleNegativesRankingLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters: |
|
```json |
|
{ |
|
"scale": 20.0, |
|
"similarity_fct": "cos_sim" |
|
} |
|
``` |
|
|
|
### Training Hyperparameters |
|
#### Non-Default Hyperparameters |
|
|
|
- `per_device_train_batch_size`: 16 |
|
- `per_device_eval_batch_size`: 16 |
|
- `num_train_epochs`: 1 |
|
- `batch_sampler`: no_duplicates |
|
- `multi_dataset_batch_sampler`: round_robin |
|
|
|
#### All Hyperparameters |
|
<details><summary>Click to expand</summary> |
|
|
|
- `overwrite_output_dir`: False |
|
- `do_predict`: False |
|
- `eval_strategy`: no |
|
- `prediction_loss_only`: True |
|
- `per_device_train_batch_size`: 16 |
|
- `per_device_eval_batch_size`: 16 |
|
- `per_gpu_train_batch_size`: None |
|
- `per_gpu_eval_batch_size`: None |
|
- `gradient_accumulation_steps`: 1 |
|
- `eval_accumulation_steps`: None |
|
- `torch_empty_cache_steps`: None |
|
- `learning_rate`: 5e-05 |
|
- `weight_decay`: 0.0 |
|
- `adam_beta1`: 0.9 |
|
- `adam_beta2`: 0.999 |
|
- `adam_epsilon`: 1e-08 |
|
- `max_grad_norm`: 1 |
|
- `num_train_epochs`: 1 |
|
- `max_steps`: -1 |
|
- `lr_scheduler_type`: linear |
|
- `lr_scheduler_kwargs`: {} |
|
- `warmup_ratio`: 0.0 |
|
- `warmup_steps`: 0 |
|
- `log_level`: passive |
|
- `log_level_replica`: warning |
|
- `log_on_each_node`: True |
|
- `logging_nan_inf_filter`: True |
|
- `save_safetensors`: True |
|
- `save_on_each_node`: False |
|
- `save_only_model`: False |
|
- `restore_callback_states_from_checkpoint`: False |
|
- `no_cuda`: False |
|
- `use_cpu`: False |
|
- `use_mps_device`: False |
|
- `seed`: 42 |
|
- `data_seed`: None |
|
- `jit_mode_eval`: False |
|
- `use_ipex`: False |
|
- `bf16`: False |
|
- `fp16`: False |
|
- `fp16_opt_level`: O1 |
|
- `half_precision_backend`: auto |
|
- `bf16_full_eval`: False |
|
- `fp16_full_eval`: False |
|
- `tf32`: None |
|
- `local_rank`: 0 |
|
- `ddp_backend`: None |
|
- `tpu_num_cores`: None |
|
- `tpu_metrics_debug`: False |
|
- `debug`: [] |
|
- `dataloader_drop_last`: False |
|
- `dataloader_num_workers`: 0 |
|
- `dataloader_prefetch_factor`: None |
|
- `past_index`: -1 |
|
- `disable_tqdm`: False |
|
- `remove_unused_columns`: True |
|
- `label_names`: None |
|
- `load_best_model_at_end`: False |
|
- `ignore_data_skip`: False |
|
- `fsdp`: [] |
|
- `fsdp_min_num_params`: 0 |
|
- `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False} |
|
- `fsdp_transformer_layer_cls_to_wrap`: None |
|
- `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None} |
|
- `deepspeed`: None |
|
- `label_smoothing_factor`: 0.0 |
|
- `optim`: adamw_torch |
|
- `optim_args`: None |
|
- `adafactor`: False |
|
- `group_by_length`: False |
|
- `length_column_name`: length |
|
- `ddp_find_unused_parameters`: None |
|
- `ddp_bucket_cap_mb`: None |
|
- `ddp_broadcast_buffers`: False |
|
- `dataloader_pin_memory`: True |
|
- `dataloader_persistent_workers`: False |
|
- `skip_memory_metrics`: True |
|
- `use_legacy_prediction_loop`: False |
|
- `push_to_hub`: False |
|
- `resume_from_checkpoint`: None |
|
- `hub_model_id`: None |
|
- `hub_strategy`: every_save |
|
- `hub_private_repo`: False |
|
- `hub_always_push`: False |
|
- `gradient_checkpointing`: False |
|
- `gradient_checkpointing_kwargs`: None |
|
- `include_inputs_for_metrics`: False |
|
- `eval_do_concat_batches`: True |
|
- `fp16_backend`: auto |
|
- `push_to_hub_model_id`: None |
|
- `push_to_hub_organization`: None |
|
- `mp_parameters`: |
|
- `auto_find_batch_size`: False |
|
- `full_determinism`: False |
|
- `torchdynamo`: None |
|
- `ray_scope`: last |
|
- `ddp_timeout`: 1800 |
|
- `torch_compile`: False |
|
- `torch_compile_backend`: None |
|
- `torch_compile_mode`: None |
|
- `dispatch_batches`: None |
|
- `split_batches`: None |
|
- `include_tokens_per_second`: False |
|
- `include_num_input_tokens_seen`: False |
|
- `neftune_noise_alpha`: None |
|
- `optim_target_modules`: None |
|
- `batch_eval_metrics`: False |
|
- `eval_on_start`: False |
|
- `use_liger_kernel`: False |
|
- `eval_use_gather_object`: False |
|
- `batch_sampler`: no_duplicates |
|
- `multi_dataset_batch_sampler`: round_robin |
|
|
|
</details> |
|
|
|
### Training Logs |
|
| Epoch | Step | Training Loss | spearman_max | |
|
|:------:|:----:|:-------------:|:------------:| |
|
| 0 | 0 | - | 0.8199 | |
|
| 0.4558 | 500 | 0.1651 | - | |
|
| 0.9116 | 1000 | 0.113 | - | |
|
|
|
|
|
### Framework Versions |
|
- Python: 3.8.20 |
|
- Sentence Transformers: 3.2.0 |
|
- Transformers: 4.45.2 |
|
- PyTorch: 2.0.1 |
|
- Accelerate: 0.26.0 |
|
- Datasets: 3.0.1 |
|
- Tokenizers: 0.20.1 |
|
|
|
## Citation |
|
|
|
### BibTeX |
|
|
|
#### Sentence Transformers |
|
```bibtex |
|
@inproceedings{reimers-2019-sentence-bert, |
|
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks", |
|
author = "Reimers, Nils and Gurevych, Iryna", |
|
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing", |
|
month = "11", |
|
year = "2019", |
|
publisher = "Association for Computational Linguistics", |
|
url = "https://arxiv.org/abs/1908.10084", |
|
} |
|
``` |
|
|
|
#### MultipleNegativesRankingLoss |
|
```bibtex |
|
@misc{henderson2017efficient, |
|
title={Efficient Natural Language Response Suggestion for Smart Reply}, |
|
author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil}, |
|
year={2017}, |
|
eprint={1705.00652}, |
|
archivePrefix={arXiv}, |
|
primaryClass={cs.CL} |
|
} |
|
``` |
|
|
|
<!-- |
|
## Glossary |
|
|
|
*Clearly define terms in order to be accessible across audiences.* |
|
--> |
|
|
|
<!-- |
|
## Model Card Authors |
|
|
|
*Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.* |
|
--> |
|
|
|
<!-- |
|
## Model Card Contact |
|
|
|
*Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.* |
|
--> |