Awesome Technology


댓글 남기기

현대모비스, 2020년 모든 자율주행센서 개발한다


獨 글로벌 센서 업체 두 곳과 제휴해 레이더 개발…”모든 센서 기술 확보하겠다”

실제 도심 옮겨놓은 첨단시험로에서 자율주행차 ‘엠빌리’ 자율주행기술 실평가

associate_pic
【서울=뉴시스】한주홍 기자 = 충남 서산의 현대모비스 서산주행시험장 전경. (사진 제공 = 현대모비스)

【서울=뉴시스】한주홍 기자 = 현대모비스가 충남 서산의 주행시험장을 신기술 테스트베드로 활용해 미래차 기술을 선도하는 회사로 거듭날 계획이다.


현대모비스는 16일 지난해 6월 완공한 서산주행시험장 최초로 공개하며 미래차의 가장 중요한 부분인 독자센서를 2020년까지 모두 개발하고 기술력을 바탕으로 글로벌 시장을 선도하겠다고 밝혔다.


현대모비스 ICT 연구소장인 양승욱 부사장은 “자율주행 연구개발 인력을 현재 600여명에서 2021년까지 1000명 이상으로 늘리고 글로벌 테스트를 진행 중인 자율 주행차 ‘엠빌리(M.Billy)’도 현재 3대에서 내년 20대로 대폭 확대하겠다”며 “독일의 유명 레이더 개발 전문업체 두 곳과 제휴를 통해 레이더를 개발하는 등 최고 수준의 자율주행기술을 선보일 것”이라고 밝혔다.


현대모비스는 현재 독일의 SMS사와 아스틱스사와 제휴를 맺고 있다. 두 회사 모두 글로벌 완성차 업체 및 부품업체와 공동으로 레이더를 개발하는 등 최고 수준의 능력을 보유한 업체로 평가받고 있다. 아스틱사사는 글로벌 1위 차량 공유 업체인 우버에 고성능 레이더를 공급한 바 있다.


현대모비스는 우선 차량 외부의 360도를 전부 감지할 수 있는 자율주행차용 레이더 5개를 SMS사, 아스틱스사와 올해 안에 개발해 2021년까지 순차적으로 양산할 예정이다. 현재 SMS사와는 전방 보급형 및 각 모서리에 장착되는 측방 보급형 레이더를 아스틱스사와는 전방 고성능 레이더를 개발하고 있다.


DAS 설계실장인 황재호 이사는 “두 회사와 2년 전부터 레이더를 개발하기 시작했고 현재 결과물이 나오는 시점”이라며 “중요한 기술 중 하나인 79GHz 주파수를 활용하는 고해상도 측방 레이더 4개를 조합해 360도를 인지하는 기술은 전 세계 어느 업체도 양산하지 못했다. 두 회사와의 협업을 통해 이 기술을 확보하고 있고 이를 통해 시장 경쟁력을 확보할 예정”이라고 밝혔다.


현대모비스는 자율주행의 3대 핵심기술로 꼽히는 인지, 판단, 제어 능력을 모두 확보하기 위해 센서 개발에 박차를 가하고 있다. 특히 ADAS(첨단운전자지원시스템) 시장에서 센서가 차지하는 비중이 2021년 60%에 육박하는 등 센서 시장은 급속 성장을 눈앞에 두고 있다.


현대모비스는 보쉬 같은 세계적 선도기업 등에 비해서는 자율주행기술 개발이 뒤쳐졌지만 빠르게 따라잡고 있는 과정에 있다고 밝혔다.


양 부사장은 “이미 자율주행시스템을 만들어 시험펴가를 진행하고 있는 구글 등 선도기업에 비하면 조금 늦은 것은 맞다”면서도 “1차 부품업체인 보쉬, 콘티넨탈, 덴소, 만도 등과 대비하면 예전에 뒤쳐져 있던 부분을 빠르게 뒤따라잡고 있고 이번 레이더 센서 개발로 경쟁에서 앞서나갈 수 있을 것으로 본다”고 말했다.


특히 카메라, 레이더, 라이다 등 센서 경쟁력이 경쟁사와 비슷한 수준까지 올라섰다.


양 부사장은 자율주행기술 수주 현황에 대해서는 “수주 응찰 단계라 확정적으로 말할 단계는 아니지만 주로 중국 업체, 미국 신생 전기차 업체들과 이야기가 오가고 있다”며 “유럽의 완성차 업체들과도 샤시 부문에 대한 수주를 진행하다가 자율주행 역량을 확인한 후 문의가 오는 단계”라고 밝혔다.


현대모비스는 기술 개발에 박차를 가한 뒤 2025년까지 자율주행, 커넥티드카 기술 등 미래차 부문에서 11조원의 매출을 올릴 것으로 기대하고 있다. 올해는 5조원의 매출을 올릴 것으로 보고 있다.


황 이사는 “내년부터 자율주행기술 시장이 급격하게 팽창할 것”이라며 “2021년까지 레벨2 시장이 확대되고 2021년 이후로는 레벨3 시장이 폭발적으로 성장할 것이라 본다”고 설명했다.

associate_pic
【서울=뉴시스】한주홍 기자 = 현대모비스 서산주행시험장 내 구현된 가상도시에서 자율주행시험차량인 엠빌리(M.BILLY)가 신호등의 신호를 받아 스스로 좌회전을 하고 있다. (사진 제공 = 현대모비스)

이날 현대모비스가 처음으로 공개한 서산주행시험장은 센서를 시험할 수 있는 전문 시험로와 엠비리를 집중적으로 테스트할 수 있는 첨단시험로 등을 갖춘 공간으로 약 3000억원을 투자해 지난해 6월 완공됐다. 첨단시험로와 레이더 시험로를 비롯한 14개의 시험로를 갖춘 총 면적 112만(약 34만평)으로 여의도 절반 크기에 달한다.


이곳에서 엠빌리에 탑승해 자율주행기술도 직접 체험해볼 수 있었다. 엠빌리는 현대모비스의 자율주행 시스템 개발 차량 명칭이다. 엠빌리에는 레이더와 카메라 등 8개 종류의 센서 25개가 장착돼 있다.


이곳 서산주행시험장 첨단시험로에는 엠빌리의 실차 평가를 위한 다양한 공간이 마련돼 있다. 첨단시험로는 일종의 가상도시 형태다. 사거리와 신호체계, 주차장 등이 마련된 실제 도심을 옮겨 놓은 모습이다. 엠빌리는 이곳을 달리며 자율주행 데이터를 축적하며 자율주행능력을 제고하게 된다.


엠빌리는 V2X(차량·사물) 통신 기술을 통해 신호가 바뀌는 것을 스스로 알아챌 수 있었다. 좌회전을 위해서 스스로 좌회선 차선으로 이동하고 신호를 기다렸다. 신호가 떨어지자 핸들도 스스로 돌아갔다.


비록 속도는 시속 40km 수준으로 일반 차량에 비해 느렸지만 혼자 운전하는 데 무리가 없었고 안정적이었다. 원형 회전 교차로도 스스로 판단해 통과할 수 있었다. 주행 차로에 정차한 차량을 스스로 발견하고 끼어드는 차량도 판단해 제어가 가능했다.


자율주행차 개발을 맡고 있는 이원오 책임연구원은 “엠빌리에는 독자 개발한 전방 레이더가 장착돼 있다”며 “카메라와 라이더 등 다른 센서도 순차적으로 독자 개발해 실차 평가를 진행할 예정”이라고 밝혔다.


그레고리 바라토프 상무는 “엠빌리는 레벨3과 레벨4 기술 개발을 위해 내놓은 것”이라며 “전 세계를 돌아다니며 자율주행 관련 정보를 획득하고 있다. 시스템을 트레이닝시키고 검증하고 있는 중”이라고 말했다.


현대모비스는 현재 한국과 독일, 미국에서 운영 중인 엠비리를 2020년 4분기까지 20대로 늘릴 계획이다.

associate_pic
【서울=뉴시스】한주홍 기자 = 길이 250m로 세계 최대 규모를 자랑하는 터널시험로에서 시험차량이 얼마나 멀리 있는 장애물까지 식별가능한지 테스트 해보고 있다. (사진 제공 = 현대모비스)

세계 최대 규모를 자랑하는 터널시험로도 직접 살펴봤다. 이곳에서는 헤드램프의 성능을 검증할 수 있다. 특히 서산시험장에 마련된 터널시험로는 하이빔 등의 성능을 검증하고 다른 기능을 개발하기 위해 세계 최장인 200m의 길이를 확보했다.


불이 꺼지자 한밤 중처럼 사방이 완전히 깜깜해졌다. 터널 천장에서 직사각형 형태의 구조물이 내려오고 차량의 상향등이 켜지자 250m 떨어진 구조물까지 불빛이 비쳐 명확하게 인식이 가능했다.


지능형 하이빔 시스템도 눈으로 확인할 수 있었다. 이 시스템을 이용하면 상대차량의 눈부심을 막기 위해 상향등을 하향등으로 자동으로 바꿀 수 있다. 구슬모양의 LED 램프가 상대 차량의 움직임을 추적해 스스로 켜지고 꺼지면서 빔 패턴을 변화시킨다.


다양한 주행조건을 구현해놓은 시험로 평가도 직접 체험해봤다. 먼저 콘 7개를 지그재그로 통과해야 하는 슬라럼 테스트를 진행했다. 차가 좌우로 회전을 거듭하며 줄지어 늘어선 콘을 빠른 속도로 통과했다.


저마찰로 시험도 진행했다. 세라믹 타일로 돼 있는 저마찰로 노면의 양쪽에서는 계속해서 물이 뿜어져 나오고 있었다. 이렇게 완성된 매우 미끄러운 타일 위에서 자동차의 제동능력을 시험하는 것이다. 시속 50km의 차가 급정거를 저마찰로 위에서 브레이크를 걸고 급정거를 했다. 끼익하는 소리가 나자 차가 조금 미끄러지면서도 제법 안정적으로 멈춰섰다.


실차 평가를 담당하고 있는 김규환 책임연구원은 “세라믹 노면의 경우 일반 아스팔트 길에 비해 10배 정도 더 미끄럽다고 보면 된다”며 “특수 노면에서 반복적인 평가를 통해 현대모비스가 공급하는 제동 장치의 품질을 철저히 검증하고 있다”고 말했다.


 hong@newsis.com


from 산업 https://ift.tt/2k2I9c5


댓글 남기기

애플 3D센서 업체 AMS “고객사 주문 축소로 2분기 실적 감소”

애플에 센서를 공급하는 반도체 업체인 AMS가 2분기 실적 감소 가능성을 언급했다고 로이터가 24일 보도했다.

AMS는 “주요 고객사 중 한 곳의 주문 약세로 2분기 매출이 감소할 수 있다”고 밝혔다. AMS는 2분기 매출 전망치로 2억2000만~2억50000만달러를 제시했다. 1분기 실적은 4억53000만달러였다.

AMS는 주문을 줄인 고객사를 특정하지 않았다. 하지만 AMS는 애플을 핵심 고객사로 두고 있다.

AMS 반도체 센서는 아이폰 3차원 센싱과 연관된 것으로 알려져 있다. 또 AMS 매출의 35% 정도가 애플서 발생하는 것으로 보고 있다.

아이폰 판매 부진과 이에 따른 실적 악화를 경고한 건 AMS 뿐만 아니다.

세계 최대 파운드리 업체인 TSMC는 지난 19일 2분기 매출 전망치를 78억달러에서 79억달러 사이로 제시했다. 이는 월가 예상치 88억달러에 크게 못 미치는 수준이다.

TSMC는 원인을 스마트폰 수요 저조로 들었다. 회사 측은 “휴대폰 제조업체의 수요가 지속해서 하락하는 점이 사업에 부정적으로 영향을 미칠 것”이라고 밝혔다.

TSMC는 고객사의 주문을 받아 반도체를 대신 생산해주는 파운드리 회사다. 애플 아이폰에 들어가는 애플리케이션프로세서(AP)를 TSMC가 제조하고 있다. 애플 아이폰 판매 부진이 TSMC 실적에 영향을 주고 있는 것으로 해석됐다.

애플 아이폰X
<애플 아이폰X>

윤건일 전자/부품 전문기자 benyun@etnews.com


“말도 안되는 가격!! 골프 풀세트가 드라이버 하나 값~~ 598,000원”

from 오늘의뉴스 – 이티뉴스 https://ift.tt/2vLrNxw


댓글 남기기

Depth-sensing imaging system can peer through fog

The MIT system was able to resolve images of objects and gauge their depth at a range of 57 centimeters. Credit: Melanie Gonick/MIT

MIT researchers have developed a system that can produce images of objects shrouded by fog so thick that human vision can’t penetrate it. It can also gauge the objects’ distance.

An inability to handle misty driving conditions has been one of the chief obstacles to the development of autonomous vehicular navigation systems that use visible light, which are preferable to radar-based systems for their high resolution and ability to read road signs and track lane markers. So, the MIT system could be a crucial step toward self-driving cars.

The researchers tested the system using a small tank of water with the vibrating motor from a humidifier immersed in it. In fog so dense that could penetrate only 36 centimeters, the system was able to resolve images of objects and gauge their depth at a range of 57 centimeters.

Fifty-seven centimeters is not a great distance, but the fog produced for the study is far denser than any that a human driver would have to contend with; in the real world, a typical fog might afford a visibility of about 30 to 50 meters. The vital point is that the system performed better than human vision, whereas most imaging systems perform far worse. A navigation system that was even as good as a human driver at driving in fog would be a huge breakthrough.

“I decided to take on the challenge of developing a system that can see through actual fog,” says Guy Satat, a graduate student in the MIT Media Lab, who led the research. “We’re dealing with realistic fog, which is dense, dynamic, and heterogeneous. It is constantly moving and changing, with patches of denser or less-dense fog. Other methods are not designed to cope with such realistic scenarios.”

Satat and his colleagues describe their system in a paper they’ll present at the International Conference on Computational Photography in May. Satat is first author on the paper, and he’s joined by his thesis advisor, associate professor of media arts and sciences Ramesh Raskar, and by Matthew Tancik, who was a graduate student in electrical engineering and computer science when the work was done.

Playing the odds

Like many of the projects undertaken in Raskar’s Camera Culture Group, the new system uses a time-of-flight camera, which fires ultrashort bursts of laser light into a scene and measures the time it takes their reflections to return.

On a clear day, the light’s return time faithfully indicates the distances of the objects that reflected it. But fog causes light to “scatter,” or bounce around in random ways. In foggy weather, most of the light that reaches the camera’s sensor will have been reflected by airborne water droplets, not by the types of objects that autonomous vehicles need to avoid. And even the light that does reflect from potential obstacles will arrive at different times, having been deflected by water droplets on both the way out and the way back.

Credit: Melanie Gonick/MIT

The MIT system gets around this problem by using statistics. The patterns produced by fog-reflected light vary according to the fog’s density: On average, light penetrates less deeply into a thick fog than it does into a light fog. But the MIT researchers were able to show that, no matter how thick the fog, the arrival times of the reflected light adhere to a statistical pattern known as a gamma distribution.

Gamma distributions are somewhat more complex than Gaussian distributions, the common distributions that yield the familiar bell curve: They can be asymmetrical, and they can take on a wider variety of shapes. But like Gaussian distributions, they’re completely described by two variables. The MIT system estimates the values of those variables on the fly and uses the resulting distribution to filter fog reflection out of the light signal that reaches the time-of-flight camera’s sensor.

Crucially, the system calculates a different gamma distribution for each of the 1,024 pixels in the sensor. That’s why it’s able to handle the variations in fog density that foiled earlier systems: It can handle circumstances in which each pixel sees a different type of fog.

Signature shapes

The camera counts the number of light particles, or photons, that reach it every 56 picoseconds, or trillionths of a second. The MIT system uses those raw counts to produce a histogram—essentially a bar graph, with the heights of the bars indicating the photon counts for each interval. Then it finds the gamma distribution that best fits the shape of the bar graph and simply subtracts the associated photon counts from the measured totals. What remain are slight spikes at the distances that correlate with physical obstacles.

“What’s nice about this is that it’s pretty simple,” Satat says. “If you look at the computation and the method, it’s surprisingly not complex. We also don’t need any prior knowledge about the fog and its density, which helps it to work in a wide range of fog conditions.”

Satat tested the system using a fog chamber a meter long. Inside the chamber, he mounted regularly spaced distance markers, which provided a rough measure of visibility. He also placed a series of small objects—a wooden figurine, wooden blocks, silhouettes of letters—that the system was able to image even when they were indiscernible to the naked eye.

There are different ways to measure visibility, however: Objects with different colors and textures are visible through fog at different distances. So, to assess the system’s performance, he used a more rigorous metric called optical depth, which describes the amount of that penetrates the fog.

Optical depth is independent of distance, so the performance of the system on fog that has a particular optical depth at a range of 1 meter should be a good predictor of its performance on fog that has the same optical depth at a range of 30 meters. In fact, the system may even fare better at longer distances, as the differences between photons’ arrival times will be greater, which could make for more accurate histograms.

“Bad weather is one of the big remaining hurdles to address for autonomous driving technology,” says Srinivasa Narasimhan, a professor of computer science at Carnegie Mellon University. “Guy and Ramesh’s innovative work produces the best visibility enhancement I have seen at visible or near-infrared wavelengths and has the potential to be implemented on cars very soon.”


Explore further:
Computational method improves the resolution of time-of-flight depth sensors 1,000-fold

More information:
Towards Photography Through Realistic Fog. web.media.mit.edu/~guysatat/fo … oughRealisticFog.pdf

from Technology News – New Technology, Internet News, Software, Semiconductor, Telecom, Computer Science http://ift.tt/2IFJ5ON


댓글 남기기

센서, 그것이 알고 싶다

4차산업 및 자율주행 등의 기술이 부상하면서 센서에 대한 관심이 뜨겁다. 이들을 구현하는 핵심 기술이 바로 센서이기 때문이다. 센서기술은 공장자동화, 사물인터넷(IOT)에 필수 기술로, 매우 다양한 분야에서 활용된다. 기계/설비, 공정산업, 자동차산업의 국제 경쟁력을 확보하는 데서도 센서 기술은 핵심적인 역할을 한다.

개념부터 정리해보자. 센서란, 직접 피측정 대상에 접촉하거나 그 가까이서 데이터를 알아내어 필요한 정보를 신호로 전달하는 장치를 총칭한다. 인간의 감각으로는 측정할 수 없는 수치도 잴 수 있어 위험이 따르는 작업에도 센서는 많이 부착된다.


특히 산업용 로봇에서 센서는 없어서는 안 되는 장치인데, 최근에는 인텔리전트 센서 등 정보나 수치를 스스로 계산·판단·처리하는 보다 높은 기능의 센서도 개발되고 있다. 비근한 예로 냉난방 기구의 온도 센서, 방범용 센서 등을 들 수 있다.

센서의 종류에는 온도 센서, 압력 센서, 유량 센서, 자기 센서, 광 센서, 음향 센서, 미각 센서, 후각 센서 등이 있다. 고속도로에 차량이 진입하면 통행 카드가 나오거나, 교실의 화재 감지기, 현관의 자동 점멸등, 어두워지면 켜지는 가로등 등이 간단한 센서의 예이다.

세계 센서 시장의 규모는 매년 5~10% 성장하고 있다. 2010년 1000억 달러에서 2015년 1500달러, 2020년 최대 2000억 달러에 이를 것으로 업계는 보고 있다.

 

from MSD – 전체기사 http://ift.tt/2HKhSt1


댓글 남기기

이미지센서 강자 소니, IoT시대 다시 주름 잡나

지난해 이미지센서 시장서 소니 점유율 52.4%

감각기관 역할하는 센서…IoT 등 위한 핵심 기술

자율주행차·스마트공장용 센서 시장 확대 시사

【서울=뉴시스】심동준 기자 = 20세기 전자 제품 시장에서 이름을 떨친 일본 기업 소니가 이미지센서 사업을 통해 다시 기지개를 펴고 있는 모양새다.

이미지센서의 경우 기기 연계 기술을 정교화하기 위한 필수 부품으로 여겨지고 있다. 이 같은 점에서 향후 사물인터넷(IoT) 등 분야에서 소니의 역할이 커질 가능성이 많다는 분석이 상당하다.

19일 전자업계에 따르면 소니는 최근 이미지센서 시장에서 지배력을 넓혀가고 있다. 시장조사업체인 테크노리서치(TSR)에 따르면 소니의 지난해 이미지센서 시장 점유율은 52.4%로 전 세계 1위를 기록한 것으로 집계됐다.

소니는 카메라 등을 개발해오면서 이미지센서 등 분야에서 강점을 구축해 왔다.

소니는 데이터 처리 시간을 크게 단축한 메모리 적층형 이미지 센서를 탑재한 카메라 신제품 ‘알파7 마크3(a7 III)’을 보급형으로 출시하는 등 관련 시장에서의 건재한 영향력을 과시하고 있다.

센서는 현재 이른바 4차 산업혁명 주요 기술로 분류되는 IoT, 인공지능(AI) 등을 구현하기 위한 필수 부품으로 알려져 있다. 센서는 기기에 탑재될 경우 감각 기관과 같은 역할을 하면서 정교한 결과 값을 도출하기 위한 데이터 수집 장치 역할을 수행한다.

센서는 비메모리 반도체의 일종으로 주변 물체의 움직임을 인지하거나 영상을 데이터 값으로 전환하는 등의 역할을 한다. 대상을 구분하기 위해서도 사용되며 환경 변화를 인식하는데도 쓰인다. 산업 현장에서도 자동화 공장에 쓰이는 무인이동장치(AGV), 제조 공정용 로봇 등에 다수의 센서가 들어가 있다.

특히 센서는 AI 등 차세대 기술을 구현하기 위한 빅데이터를 형성하기 위한 전제가 된다는 측면에서 중요한 부품으로 여겨지고 있다.

단순한 기기 연동은 물론이고 자동화 기기가 내놓는 결과 값의 정확성을 확보하기 위해서는 센서가 다량 필요하다는 것이 업계의 지배적인 견해다.

전자업계 관계자는 “IoT나 AI를 위한 핵심 부품 중 하나가 센서라는 점은 부정할 수 없는 사실”이라며 “기본적으로 센서를 통해 들어온 정보를 바탕으로 구현될 수 있는 것이어서 앞으로 센서의 중요성은 커질 것으로 예상한다”고 설명했다.

다른 관계자는 “IoT 등을 하려면 센서가 많이 필요하고 화소수도 계속 늘어나야 한다. 이미지센서는 현재 시장에서 물량과 품질을 동시에 요구하는 상황으로 성장성이 크다고 볼 수 있겠다”라고 분석했다.

소니는 최근 텔레비전(TV), 휴대전화 등 전통적인 전자 제품 분야에서 삼성전자와 LG전자 등 다른 가전 업체와의 경쟁에서 상대적으로 부진했다. 2013년과 2014년께 들어서는 실적까지 두드러지게 악화되는 모습을 보였다.

하지만 소니는 지난 2015년 자본시장에서 약 4000억엔을 조달해 상당 부분을 이미지센서 분야에 투자했다. 또 실제로 상당한 성과를 기록하면서 전 세계 이미지센서 시장에서 상당한 지배력을 구축한 것으로 평가 받고 있다.

지난 2016년 기준으로 소니의 분야별 이미지센서 점유율은 각각 휴대전화 46%, 디지털일반반사식카메라(DSLR) 50%, 머신 비전 70% 등으로 나타났다. 특히 휴대전화 이미지센서 시장에서 소니 제품은 고부가·고성능 제품으로 인식되고 있다.

소니는 이미지센서 시장에서의 입지를 바탕으로 새로운 분야를 주도하려는 의지를 보이고 있다. 대표 분야는 자율주행차를 위한 차량용 이미지센서, 스마트공장에 적용되는 산업용 이미지센서 등이다.

소니 측은 “전 세계 1위 점유율을 보유한 카메라·스마트폰 이미지센서 시장뿐만 아니라 자동차용 이미지센서, 보안, 공장 자동화 분야 등으로 사업 저변을 확대하려 한다”고 밝혔다.

지난해 히라이 가즈오(平井一夫) 소니 대표 또한 이미지센서 사업 확장을 주된 경영 목표로 제시하면서 디지털 이미징센서 이외에 자동차용 제품 등을 언급했다.

국내에서는 삼성전자 등이 기존 반도체 제조 업력을 바탕으로 이미지센서 시장에서의 입지를 넓히려 하고 있다. 삼성전자는 이미지센서 브랜드 ‘아이소셀’을 내세우고 있으며, 일부 반도체 공장 생산품을 이미지센서로 변경하는 등의 조치도 취한 것으로 알려져 있다.

하지만 일부 기업을 제외한 국내 다수 센서 업체의 경우에는 기술 수준이 현재 시장에서 요구하는 정도에 미치지 못하고 있다는 분석도 많다. 아울러 소니가 구축한 이미지센서 시장에서의 지배력을 흔들기 위해서는 투자와 인력 양성이 좀 더 필요하다는 지적도 제시된다.

한국반도체산업협회 관계자는 “반도체로 만드는 이미지센서는 사실 한국이 먼저 시작했다. 기술 선점은 했었다고 봐도 좋을 것”이라면서도 “문제는 일본이 오랫동안 센서 분야를 해오면서 현재 품질 측면에서 한국을 추월했거나 대등한 수준까지 왔다는 것”이라고 했다.

그는 “이미지센서는 비메모리 반도체이지만, 다른 시스템 반도체 대비 설계 비중이 낮은 편이어서 기술적으로 한국 기업들이 경쟁력을 갖출 수 있는 환경은 있다고 본다”며 “다시 주도권을 쥐려면 투자와 전문 인력을 키우는 노력 등이 필요할 것”이라고 설명했다.

s.won@newsis.com






from 중앙일보 – IT http://ift.tt/2HKvx3r


댓글 남기기

LED-Embedded Contact Lenses Monitor Glucose Levels in Tears

A soft, flexible contact lens can monitor glucose levels in tears and deliver sensing results through the lens display, alerting the user if glucose levels are too high by turning off a tiny embedded LED light, according to a new report from UNIST, Korea.

(Image: Jang-Ung Park, UNIST)

The authors said their approach, tested in rabbits, is the first to apply the display pixel into a soft contact lens to visualize glucose sensing. The strategy may one day be used to screen for pre-diabetes and daily glucose monitoring. Critically, this strategy does not require the expensive tools or brittle components currently used in many “smart” lenses, which can block the user’s field of vision and even harm the eye.

Such systems also typically require bulky equipment to measure signals from the contact lens sensors. To create a softer, more user-friendly smart lens capable of wirelessly monitoring glucose, Jihun Park and colleagues developed a way to incorporate into stretchy, transparent nanostructures glucose sensors, wireless power transfer circuits and, notably, display pixels capable of accessing real-time sensing data, thus eliminating the need for additional measurement equipment.

The wireless display component of their system (which contains an antenna, rectifier, and LED pixel) can respond to changing glucose levels with the help of a graphene sensor, while simultaneously displaying the glucose information through the LED pixel. After detecting the glucose level in tear fluid above the threshold, this pixel will turn off – a cue to the wearer.

To test their new device, Park and colleagues applied the lens into a rabbit eye and report they could successfully monitor an increase in glucose concentration wirelessly. They said that their hybrid substrate system can be applied to other areas, such as smart devices for drug delivery, augmented reality, and even biomarker monitoring via a smartphone.

from LEDinside, a leading platform for LED, LED Lighting and LED Market Research http://ift.tt/2FMmWN0


댓글 남기기

최근 이미지센서 메이커의 동향


1. 주요 15개 제조업체


1) 아바코 테크놀로지(프로세스 진화에 DFM 추진)


동사는 휴대용전화 등의 모바일용에 초점을 맞춘 CMOS센서를 전개하고, Chip 제조는 TSMC에 위탁, 0.13㎛이나 0.11㎛ 프로세스를 사용한 디바이스를 제조하고 있다. Cu배선대응을 추진하고 있는 것 외에 화소규격 0.75㎛의 제품 시제도 완료하고, 곧 발표할 예정이다. 또한 모바일용의 소형, 박형 카메라 모듈을 위해 Chip의 소형화를 진행하고 있다.


4개 TR의 기능을 1.5개의 TR로 Share하는 기술이나 안정화 전원을 걸어주는 것으로 Capacitor수를 적게 하는 기술 등의 개발로서 8×8㎜, 6×6㎚라는 소형 Package에 대응하는 Chip을 개발하고 있다. 더욱이 프로세스나 Package기술 장래의 진화에 대비한 DFM(Design For Manufacturing)을 진행시키고 있는 것이 특징이다. 약 2년 후까지의 기술변천을 감안한 설계를 준비하고 있다. 최근에는 1/5인치, 130만화소로 Small Form Flat(SFF)를 갖춘 「ADCC-3100」을 발표하였다. 적은 픽셀로 많은 광을 받을 수 있게 하여, SFF에 따른 문제를 해결한 외에 화소처리기능을 One Chip으로 제공하고 있고, 6.0×6.0×4.5의 박형 카메라모듈에도 간단히 수납가능하다.


앞으로 Reflow에도 대응할 수 있는 Package의 CSP화에도 준비하고 있다. 이 중에서 실리콘 관통배선의 채용 등에도 시야를 두고 있지만 이 경우에는 전술한 DFM의 설계 개념의 채택 하에서 실리콘의 매굴 Etching 프로세스 등도 고려한 설계의 진행도 생각하고 있다. 앞으로도 동사는 Volume Zone에 있는 모바일기기에 역점을 둔 사업전략을 추진할 것이다.


2) ST Microelectronics(휴대전화 카메라모듈에서 Top)


휴대전화용을 중심으로 옵티컬 마우스, USB센서, 웹 카메라용 등에도 제공하고 CIF부터 5M화소가 있어 카메라모듈을 전개하고 있다. 특히 「CMOS센서소자」, 「Optical」, 「ISP(Imaging Signal Processor)」, 「Mechanics」의 모두를 자사에서 갖추고 있는 점이 강하다는 것이다. 센서의 장단점 각기의 부품으로서 보완이 가능하다.


05년에 휴대전화용 카메라모듈로 3억 8000만개의 시장에 대해 동사는 16%의 점유율을 획득하였다. 06년 상반기에는 3억개 이상으로 13%의 점유율로 여전히 Top을 사수하였다. 월산 약 650만개를 제공하고 있다. Unit 기준으로는 VGA가 중심이 되고 있다. 더욱이 CIF는 EMS사에 제조를 위탁하는 경우 외에도 센서단체로서 판매하고 있다.


현재 동사가 제공하는 CMOS센서 픽셀규격은 3.0㎛과 2.2㎛이고, 앞으로 2.2㎛를 중심으로 할 것이다. 2.2㎛는 130㎚ Cu배선 프로세스를 사용한 2M~3M 화소형을 제조하고 있다. 07년에는 1.75㎛를 투입할 것이다. 이 기술에는 90㎚ 프로세스가 사용된다. 5M화소에 대응하는 동시에 기존제품에도 전개하는 것으로, 소Chip화, 코스트다운화도 도모할 것이다. 1.4㎛도 시야에 두고 있다. 생산은 Wafer공정을 200㎚와 300㎚ 라인을 갖고 있는 “크로루”공장과 200㎚의 룻세공장, 모듈은 중국의 심천, 싱가포르의 도파이요공장에서 하고 있다.


3) 옴니비전사(Fabless로 고수익구가)


휴대전화용으로 1.3M 픽셀의 CMOS 이미지센서를 발표하였다. 2㎛ 픽셀로 1/5인치 광학포맷을 채용, 모듈규격은 6×6×4㎜를 실용화하였다. 휴대전화 이외에는 자동차용 Real View에 대응, DSC(카메라) 등에도 출하하고 있다.


동사는 Imaging Device의 대Fabless기업으로 연간매상고는 05년 회계연도(05년 4월말)에 전년대비 22% 증가의 3억 8800만불, 또한 06년 회계연도(06년 4월말)는 약 4억 9200만불로 전기 대비 약 27% 증가로 고도성장을 지속하였고, 매상비는 90%가 상승한 것으로 추정되고 있다. 더욱이 순이익은 06년 회계연도에 8900만불로 매상고 순이익은 18%로 고수준을 유지하였다.


주된 Imaging Device제조는 대만의 TSMC를 시작으로 Power Chip에 위탁하고 있다. 프로세스는 0.5㎛~0.13㎛을 활용하고 있다. 또한 컬러필터나 마이크로 렌즈는 TSMC와 합병기업인 Vis-Era사(대만)와 대일본인쇄가 담당하고 있다. Packaging은 ASE와 기오세라(일본) 등을 중심으로 주로 활용하고 있고, CSP 등의 첨단 Packaging으로 시엘케스사에 위탁하고 테스트는 자체에서 하고 있다.


4) 캐논사(라인업 확충, Viedea 카메라용도 제품화)


캐논사는 자사의 디지털 일안(一眼)카메라 「FOS시리즈」용의 CMOS 이미지센서를 내장하고 있다. 누계의 생산개수는 06년 말 단년도만으로도 245만개를 달할 것으로 본다. 최근에는 더해서 신기록도 타개하고 있다.


06년 가을부터 발매를 개시한 자세의 풀HD 비디오카메라 「iVISHV10」용으로 2.7분의 1인치의 CMOS센서를 제품화하였다. 총화소수는 296만 화소, 유효화소 수는 16대의 동화시로 약 207만 화소(1820×1080), 4:3의 정지화시로 약 276만 화소(1920×1480)이다.


프로세스는 종래제품은 0.25㎛이었지만 이 제품은 배선 프로세스를 0.18㎛로 미세화, 화소규격은 1안카메라용 센서규격에서 대폭으로 소형화한 2.75㎛ 픽셀을 실현화하였다. 또한 미세화에 따른 화질의 저하를 피하기 위해 고속화를 도모하기 위해, TR의 수를 줄여서 독출부의 공유화를 도모한 외에 동사가 개발하여 업계의 Defect Standard로 되었다.


4개 TR구조에 의한 노이즈제거기술에 가해 예거한대로 초저Noise Gain Amp만으로 증폭을 거는 것으로, 노이즈의 저감을 하였다. 이 신기술로 노이즈를 대폭 저감해 열(列) AMP를 설치하는 것으로, Capacitor가 불필요하게 되어 주변회로의 소형화가 가능하였다. 더욱이 비디오카메라용 CCD의 약 반분의 저소비전력도 실현하였다. 이것들로서 고화질인 정지화 채형을 실현가능하게, 동화와 정지화의 동시 채형도 가능하다.


5) 삼성전자(1.75㎛ 800만 화소를 개발)


메모리 최대기업인 동사도 CMOS센서에 총력을 기울여 최근에 1.75㎛ Pitch의 단위픽셀기술을 적용, 고화질의 디지털카메라용으로서 800만 화소를 집적한 CMOS 이미지센서를 개발하였다. 이것으로서 메모리 반도체분야뿐만 아닌 시스템LSI에 있어서도 세계적인 기술력을 확보하였다. 이 기술에 의해서 CCD 이미지센서의 대체효과로 Hand Held PC용의 고화소카메라 시장의 선점을 기대하고 있다.


또한 독창적인 픽셀소자 및 광학구조를 통한 신호증강, 계면개선을 통해서 노이즈제거 등 이미지센서 분야에 있어서의 Core기술을 확보하고, 앞으로 자동차, Robotics의학 등의 다양한 응용분야에서 선도가 가능한 기술적인 기반을 갖추고, 2010년 이후에 새로운 반도체성장을 견인하여 매상증대에 기여할 것으로 보고 있다.

※ 06년 11월 말 기준 : 월산 800만개, 세계 제3위


6) 사이프러스 Semiconductor (범용/Custom품을 넓게 전개)


동사는 Machine Vision, 분석기기, 의료기기, 인공위성 등에 사용되는 범용/Customer의 CMOS 이미지센서를 공급하고 있다. 동사는 04년 3월에 벨기에의 “휠팩토리”사를 매수하여, CMOS 이미지센서사업에 참입하고, 범용제품으로서는 SmartShot대응의 「LUPA(VGA, 1.3/4M 픽셀)」, Dual Mode 대응의 「IBIS5(1.3M 픽셀)」, Rolling Shutter 대응의 「IBIS4(1~6.6M 픽셀, 14M 픽셀)」, 내방사선의 「STAR (250K 픽셀, 1M 픽셀)」의 4개 Family를 갖추고 있다. 


LUPA와 IBIS5는 높은 Frame Rate나 Snap Short가 필요로 하는 Machine Vision용이고, IBIS4는 스캐너 등의 스캐닝용도이고, 내상서산에 우수한 STAR는 인공위성이나 원자력 발전소의 모니터링용으로 사용되고 있다. Custom 제품은 지금까지 약 40품목의 제품을 제공하고 있다. 이 제품들은 모션(Motion)분석용의 1000fps품, 내시경, 피루카메라, 우주, 의료 등으로 다양하다. 생산은 미국 미네소타주공장의 0.13㎛ 프로세스 이외에도 외부 Foundry도 활용하고 있다. 동사의 06년도 CMOS 이미지센서의 매상고는 전년대비 30%의 증가로 보고 있다.


7) Sharp사(카메라 모듈의 소형화에 주력)


동사는 CCD와 CMOS 이미지센서의 양방향에 손대고 있고, 특히 카메라모듈의 소형화에 주력하고 있다. 06년도 중간기 매상실적은 전년도대비 22.7% 증가된 469억엔이 되고, CMOS 센서의 비율은 50%를 넘어섰다. 전체기간으로는 과거 최고의 매상고 1000억엔을 계획하고 있다. 세계 휴대전화 각사의 적극적으로 디자인을 하여 주고 있다.


CCD소자는 FT방식의 DSC용과 TIF방식의 휴대전화용이 주력이고, 화소수별로는 600만화소 이상과 500만화소 미만의 비율은 5:5이다. DSC용은 거의 전량이 500만화소 이상으로 양산 중의 1000만화소에 이어서 어느 정도 화소 셀 규격을 1.88㎛각의 1.7분의 1형 1200만 화소제품을 개발하여 07년 1월부터 양산한다. 한편 CMOS 센서소자는 일부를 제외한 태반을 외부에서 조달하고 있다.

카메라모듈에 관해서 CCD 카메라모듈은 휴대전화용으로 VGA에서 300만화소품까지를 갖추고 있다. 한편 CMOS 카메라모듈은 CIF부터 200만화소 제품까지를 상품화하고, 그 중에서도 CIF와 VGA제품은 휴대전화의 Second 카메라용으로 호조여서, 카메라모듈 전체의 40%를 점하고 있다. VGA품의 가격하락이 심하지만, 대신하여 200만화소 제품으로의 수요증가가 있었다.


생산체제는 소자는 후꾸야마의 제3, 제4공장, 모듈화는 중국의 무석 Sharp, 관계회사의 Sharp-다카야 전자공업, 협력회사인 “산에스”사에서 하고 있다. 월생산량은 모듈기준으로 1000만개를 넘고 있어 앞으로는 무석을 증강할 것이다.


8) Sony사(휴대전화용으로 고화소영역에서 수위표방)


동사는 CCD 리더로서 시큐리티 카메라시장이 활황으로 DSC시장도 견조한 추이를 보여 월산 950만개의 생산체제를 Full 조업하고 있다. 동사의 CCD는 DSC용이 반을 점하고, 나머지는 캠코더와 시큐리티 카메라로 나누어진 격이다.


주력의 DSC(Digital Still Camera)용은 지금까지 2.5분의 1인치 7M화소품이 주류였지만, 06년 가을부터 2.5분의 1인치 8M화소품을 투입한다. 셀 규격은 1.75㎛각을 실현, 10M화소품은 1.8분의 1인치규격을 제공하고 있다. 동사는 앞으로 CMOS 이미지센서사업에 주력할 것을 명백히 하고 있다. 현재 휴대전화를 위주로 캠코더, 대형 DSC용으로 제공하고 있다.


휴대전화용으로는 2M~3M화소의 제품화를 마치고, CCD의 2배인 높은 화질이 장점이다. Unit 셀규격은 0.18㎛ Rule을 사용하여 2.5㎛각이고 당면 저배화(低背化), 화소수를 타깃으로 하여 나갈 생각이다. 06년 말에 5M화소품을 투입한다. 일본시장을 타깃으로 하고 있고, 이주전쟁에는 3M~5M화소의 영역 점유율로 40%정도를 겨누고 있다.


캠코더용은 HD용을 4분의 1인치, 2M화소급으로 제공하고 있다. 고감도나 해상도를 높은 수준으로 실현하는 Hi-End제품도 있다. 90㎚, Cu배선을 사용하고 있지만, 이 프로세스는 지금 휴대전화용으로도 응용하고 있다. 생산을 일본 나가자기 TEC이지만, 구마모도 TEC의 제2동을 07년 봄부터 가동시킨다. CMOS 센서에서는 후발이지만, 새공장의 가동으로 선행메이커를 수량 면에서 추격하고 있다.


9) 산요반도체(근적외선영역 CCD에서 신 분야 개착)


동사는 휴대전화용 CCD에서 점유율 50~60%(일본시장)를 갖고 있었지만, CMOS 이미지센서 등의 경쟁에 의해서 크게 규모가 축소되었다. 05년도의 실적으로는 반도체제품별 매상은 전체의 80%를 점하고, 150억엔의 규모로 생각하고 있다. 동사에서는 휴대전화, DSC라는 시장과는 선을 그어서, 새로운 시장개척을 한다는 노선전환을 타개하고 있다.


신문개발품으로서 근적외 영역에서의 감도를 대폭 향상시킨 신형 CCD를 CEATEC Japan 2006에서 발표하였다. 이 CCD는 가시광 0.1Lux 이하의 미약한 밝기로서도 채형가능하여서 950㎚의 LED를 사용하여 채형한다. 시큐리티나 개인인증, 차재, 의료분야 등 다용도로의 전개가 되기 때문에 동사에서는 새 시장개척에 의한 CCD사업의 부활에 기대를 걸고 있다. 산요반도체에서는 최첨단 Packaging기술의 개발에도 주력하고 있다.


05년에 Tokyo OHKA와 공동으로 관통전극기술의 Wafer 서포트 시스템을 개발하고, 관통전극기술은 일본 ASET(초첨단전자기술개발기구)에서 개발된 기술로서 산요전기가 자사의 CCD를 적용하여서 시제작하고 있다. 동사에서는 관통전극기술을 CCD사업에 있어 타사와의 차별기술의 하나로 잡고, 앞으로의 실용화를 서두르고 있다.


10) Tower Semiconductor(중국시장에 진출)


이스라엘의 Foundry기업인 Tower Semiconductor도 CMOS 이미지센서사업을 확대하고 있다. 중국의 Supper Pix Technology사와 공동으로 새로운 제품의 양산을 개시한다고 발표하였다. 우선 중국시장을 목표로 카메라부착휴대전화나 보다 고기능한 스마트폰이라는 애플리케이션분야에 탑재한다. Tower사는 APD(Advance Photo Diod)기술과 독자의 픽셀IP를 활용하여 자사의 Fab2에서 0.18㎛ Rule로 양산하고 있다.


동사는 1993년에 설립되어 이스라엘의 Foundry기업으로 프로세스는 1.0㎛에서 0.13㎛ Rule에 대응하고, 동사는 CMOS 이미지센서 이외에 Mixed Signal IC나 불휘발성 메모리 솔루션을 제공가능하다고 한다. Fab1에는 6인치 Wafer 월 1만 6000매, Fab2에서는 8인치 월 1만 5000매의 생산능력을 보유하고 있다.


11) Micron Technology사(자동차, DSC도 개척)


CMOS 이미지센서사업 매상액은 03년(03년8월 기준)에 1600만불, 04년도는 9700만불, 05년도는 3억 300만불, 06년도는 7억 4900만불로서 급속한 성장추이를 보이고 있다. 용도는 휴대전화 등의 소형제품이 중심이지만 앞으로는 디지털카메라, 캠코더, 자동차 등의 중형/대형용에도 적극적으로 제품을 투입할 것이다.


휴대전화용은 1M~5M 제품화, 자동차용은 구미의 자동차메이커용으로의 채용을 검토하고 있고, 07년의 모델부터 탑재될 예정이다. 일본에서는 CCD가 선행하고 있어서 보급기에는 소형화, 고기능으로 유리하게 CMOS 이미지센서 수요가 높아질 것으로 판단하고, 기술개발에도 적극적이다. 프레임 수에서는 이미 5000fps를 개발하고 있어 탄환의 날아가는 모양, 충돌시험 등의 순간적 화상을 채형하는 분야에서 채용되고 있다.


또한 1M 픽셀, 500fps의 제품도 개발하고 있고, 할리우드 영화의 고감도 센서로서 사용되고 있다. 픽셀규격은 03년에 5.2㎛에서 시작하여 현재는 1.75㎛이 8M품으로 제품화되고 있다. 연구단계에서는 1.4㎛를 개발하고 있다.


생산거점은 아이다호의 보이스시에 8인치 라인 2개, 이탈리아의 아베자노에 한 개 라인을 보유하고 있다. 생산능력은 각기 주산 1만~1만 5천매, 생산능력이 부족한 경우에는 일본의 서협공장에서도 대응한다.


12) 매그나칩반도체사(VGA에서 Top으로 부상)


매그나칩반도체는 VGA급의 30만, 130만, 200만화소 등 다양한 CMOS 이미지센서를 제조하고 있고, 이미 VGA급의 CMOS 이미지센서 업계에서는 Top 메이커로 부상하고 있다. Mega픽셀급의 CMOS센서 양산에도 적극적으로 나서고 있어, 관련시장의 점유율을 확대시키고 있는 전략이다. 또한 07년에는 미국 나스닥에 상장을 추진할 계획이며, 이것을 발판으로 글로벌한 종합반도체기업으로 비약할 각오이다.


동사는 05년도의 매상고는 9000억원(1엔대 약 7.8원)을 기록하였다. 그 중의 CMOS센서분야는 1560억원(한국)으로 전체의 17%를 점하고 있다. 06년은 9120억원으로 추정되고 있지만, CMOS센서의 비율은 전년대비 대폭 감소할 가능성이 있다.


13) 도시바사(고화소, 모듈화에서 선행)


동사는 휴대전화용의 고화소 CMOS 이미지센서사업을 동사 반도체사업의 중핵으로 자리를 굳히고, 이 영역에서 있어서의 Top그룹 점유율을 지속 견지하고 있다. 수량기준으로서도 06년 1년간에 20% 전후의 성장을 자랑하는 등 시장 확대 기조이다. 이 때문에 생산거점의 대분공장에 있어 능력의 증강계획안을 시동, 현재 생산수량은 월 700만개로 추이되고 있으나, 수요동향을 보아가면서 08년도 중에 목표대로 1500만개 정도까지 확대할 계획이다.


현재는 개수기준으로 VGA(31만화소)급과 1.3M/2M급을 만들고 있지만 06년의 제4/4분기 이후에는 3M품이 급속히 상승하고 있어 07년은 이 제품이 주역이 될 것으로 본다. 그래서 08년도 시점에서 3M품 등의 Mega픽셀품을 80% 이상(개수)을 점유할 것으로 보고 있다.


또한 휴대전화용으로는 더욱이 고화소화의 요구도 있고, 1년 내에는 5M품의 요구도 나올 것으로 보아 다양한 사용자의 요구에 대응한다. 제조코스트를 인하하는 것이 긴급과제로 기상각이 끝난 기존의 로직라인을 유효하게 활용하는 전략이다.


그 외에 동사의 강점으로서 카메라모듈까지의 일관생산체제도 생각하고 있다. Chip수준으로의 출하도 있지만 현재로는 70~80%가 모듈제품이고, 국내외 3~4개사가 모듈의 조립을 의뢰하고 있지만, 설계는 자사에서 하고 있다. 임기응변으로 사용자의 요구에 대응 가능한 것이 매력이다.

0.13㎛ 프로세스로 2.2㎛의 화소 Pitch가 주류이지만, 서서히 고화소화와 더불어 미세화도 가속하고 있다. 근접한 1.75㎛의 화소 Pitch 제품을 양산하고 있다. 주류 프로세스는 0.13㎛이지만, 일보는 90㎚ 등의 미세화 프로세스도 활용하고 있다.


14) 후지필름사(제6세대 Honeycom CCD로 감도경쟁에 불을 붙이고 있다)


동사는 CCD 생산회사로 후지필름 마이크로 디바이스사가 후지필름 본사와 경영을 통합하였다. CCD와 디지털카메라 본체의 개발제조를 일체화하여 사업경쟁강화를 노리고 있다. 후지필름 선진연구소와의 협력관계도 구축하여 그룹 내에 넓게 분산되고 있는 화상기술의 종합력을 발휘하는 전략이다.


06년은 전년도부터 이어온 견조한 자사 디지털카메라와 CCD공급선의 호조한 휴대전화출하에 힘이 되어 견조한 신장을 보이고 있다. 자세의 디지털카메라 시장에서의 점유율 확대경향을 보이고 있다. 그 원동력은 콤팩트카메라를 시작으로 Full화소로 ISO 3200을 실현한 최신의 제6세대 슈퍼CCD Honeycom VI 「HR」은 레이저와 포토다이오드 구조의 개선으로 저노이즈를 실시하는 것으로 고감도화를 실현해 고감도 전쟁에 불을 붙였다.


동사에서는 앞으로 CCD로 고감도화, 고해상도화에 의한 고화질, 고성능화를 추구하여 애플리케이션 개척에 있어서도 규모의 확대라는 관점뿐만 아니라 슈퍼CCD Honeycom의 화질을 차별화 요인이 될 수 있는 시장을 우선적으로 착수할 생각이다.


그 외에도 동사는 06년 1월에 유기광전변환막을 사용한 신형 유기 CMOS센서를 개발하고 있다. 고생산성이라는 특징 외에도 CCD의 3배 이상의 감도향상이 원리적으로 가능하다고 한다. 그래서 3~4년 후를 보고서 이미지센서로의 기술 확립을 목표로 하고 있다.


15) 마쯔시다 전기산업 반도체사(DSC 호조로 CCD에서 분주)


동사는 반도체사업의 주요 5개 분야로서 디지털TV, DVD, 이동통신, 이미지센서, 차량에 주력하고 있다. 이미지센서의 매상고는 약 14%의 600억엔(05년도 실적)을 점하고 있고, CCD 및 신형센서의 2Maicovicon이 두 개 지주이며 전공정은 난파공장, 후공정은 신정공장과 싱가포르, 카메라모듈화 공정은 자회사의 파나소닉반도체 디바이스 솔루션의 백하공장이나 중국 소주 등이 담당하고 있다.


CCD는 Sony, Sharp사와 나란히 3강의 하나이고 방송, 업무용이나 DSC, 시큐리티용으로 LT, FIT방식의 소자를 제공하고 있다. 그 중에서 Share-up이 현저한 DSC가 분주하다. 지난번 화소혼합 독출모드로 30fps(화수규격 2㎛각)를 출하하였다. 이어서 1200만화소품의 개발을 추진 중이고, 시큐리티분야에서는 Door Phone사용으로 호조이다. 4분의 1형 25만화소품 등을 제공하고 있다.


2Maicovicon은 CCD의 고화질과 CMOS센서의 저소비전력을 양립하였다. CCD를 대체할 주력센서로 자리 잡고 있고, 카메라모듈로서 4분의 1형 130만화소, 3.2분의 1형 200만화소 및 300만화소를 갖추고 있다. 주요 애플리케이션의 휴대전화는 해외사업의 축소 등으로 부진하다. 올림푸스사와 공동 개발한 일안(一眼)카메라에 이 센서를 기준하여 4분의 3형 750만화소의 Live MOS센서를 채용하여 탑재 애플리케이션을 넓히고 있다.

from 월간 전자 디바이스 http://ift.tt/2DaZIj7


댓글 남기기

스마트폰 경쟁력, 앞으론 ‘센서’가 좌우한다

스마트폰 제조사들이 다양한 센서를 활용해 차별화에 나서고 있다. 위치 확인이나 지문인식 센서 등이 일반적인 범위에 속한다면 3차원(3D) 얼굴인식이나 홍채인식 센서 등은 주요 차별화 요소로 분류된다. 앞으로도 스마트폰 제조사들은 프리미엄 전략 스마트폰에 경쟁사들이 적용하지 않는 차별화된 센서를 선제적으로 적용해 소비자들의 선택을 받겠다는 전략이다. 
1일 시장조사업체 카운터포인트에 따르면 지난해까지 판매된 스마트폰에 탑재된 센서의 수는 총 60억개가 넘고 2020년에는 100억개까지 증가할 것으로 전망된다. 현재 스마트폰에는 다양한 종류의 센서가 탑재돼 다양한 기능을 제공한다. 보통 가속도계, 나침반, 자이로스코프, 주변광원센서(ALS) 등의 센서들은 출고가 50달러 이하의 저가 스마트폰을 비롯해 일반적으로 널리 이용되

from 파이낸셜뉴스 실시간뉴스 http://ift.tt/2q7GAPX


댓글 남기기

“스마트폰 센서 시장, 2년 내 70% 성장”




[아이뉴스24 강민경기자] 스마트폰에 탑재되는 센서 시장이 2020년 올해 대비 약 70% 성장할 전망이다.

22일 시장조사업체 카운터포인트리서치의 연구 보고서에 따르면 2017년에 판매된 스마트폰에 탑재된 센서의 수는 60억개가 넘는다. 2020년에는 이 수치가 100억개까지 늘어날 것으로 전망됐다.

현재 스마트폰에는 다양한 종류의 센서가 탑재된다. 일부 프리미엄 스마트폰의 경우 미세전자기계시스템(MEMS)과 다른 센서 기술의 발전에 힘입어 15개가 넘는 센서가 장착된다.

올해 가장 많이 채용된 센서는 ▲홍채 스캐너 ▲3D 센싱 ▲자이로스코프 ▲근거리무선통신(NFC) 센서 등으로 나타났다. 오는 2020년에 판매되는 스마트폰 중 절반은 NFC 솔루션 또는 자이로스코프를 탑재할 것으로 카운터포인트리서치는 예상했다.

가속도계와 나침반, 자이로스코프, 주변광원센서(ALS)와 같은 센서들은 이미 50달러 이하의 저가 스마트폰에도 탑재된다. 이는 내비게이션과 게임, 증강현실(AR), 배터리 수명 증가 등 여러가지 면에서 폭넓게 활용된다.

생체인식 기반 센서 역시 최근 몇 년간 스마트폰에 적용되는 수가 대폭 증가했다. 2018년에 판매될 스마트폰의 10억대 이상이 지문인식센서를, 4억대 이상의 스마트폰이 안면인식 기반의 잠금해제 센서 솔루션을 적용할 것으로 관측됐다.

심박센서와, 산소포화도측정기(SpO2)와 같은 건강 관련 센서들은 주로 프리미엄 스마트폰에 도입된다. 이 센서는 삼성전자가 S헬스 기능 개선을 위해 활용하고 있다.

다른 브랜드에서도 자체적인 웨어러블 전략에 따라 이들 센서를 활용하고 있다. 그러나 이 같은 센서의 도입은 제품의 단가 상승으로 이어져 일부 업체들에게는 부담으로 작용하기도 한다.

박진석 카운터포인트리서치 연구원은 “2017년 자이로스코프 판매량 증가를 견인한 상위 3개 브랜드로 애플, 삼성전자, 샤오미를 꼽을 수 있다”며 “이들이 전체의 60%에 달하는 비중을 차지하고 있는 것으로 나타났다”고 말했다.

이어 “삼성전자, 애플, 화웨이가 NFC 기반의 스마트폰 판매량의 83%를 차지하고 있다”며 “상위 다섯 개의 브랜드가 각자 센서를 통해 다양한 활용도와 서비스를 제공하는 차별화 정책으로 활용하고 있다”고 분석했다.




강민경기자

spotlight@inews24.com




















IT는 아이뉴스24, 연예ㆍ스포츠는 조이뉴스24(Copyright ⓒ 아이뉴스24. 무단전재 및 재배포 금지)



from 아이뉴스24-IT http://ift.tt/2kWJnWt


댓글 남기기

겉으로 드러나지 않지만 꼭 필요한 센싱의 미래 ‘자기 센서’

     자동차에서 방향 지시 등부터 시동까지 겉으로 드러나지는 않지만, 모든 것을 가능하게 하기 위해 꼭 필요한 기술이 자기 센서이다. 차량에는 눈에는 보이지 않으나 최대 70개까지의 자기 센서들이 내장되어 있으며, 이들은 A지점에서 B지점으로 이동하도록 도움을 준다. TI(www.ti.com)의 프로세스 개발 매니저인 리키 잭슨(Ricky Jackson)은 “오

from Display Plus http://ift.tt/2CYpS8l