Figure 9-15: Load-extension graphs obtained for welds carried out with industrial approach and continuous welding

이 기술 요약은 Prasad Manorathna가 2015년 Loughborough University에 제출한 박사 학위 논문 “Intelligent 3D Seam Tracking and Adaptable Weld Process Control for Robotic TIG Welding”을 기반으로 하며, STI C&D의 기술 전문가에 의해 분석 및 요약되었습니다.

키워드

  • Primary Keyword: 로봇 TIG 용접
  • Secondary Keywords: 적응형 용접, 3D 심 트래킹, 용접 자동화, 용접 공정 제어, 항공우주 용접, 지능형 로봇

Executive Summary

  • 과제: 숙련된 용접사의 기술에 크게 의존하는 항공우주 부품의 복잡하고 정밀한 TIG 용접을 자동화하는 데에는 기존 로봇 기술의 한계가 있었습니다.
  • 방법: 6축 산업용 로봇, 레이저 삼각 측량 센서, 용접 시스템을 통합하고, 실시간으로 용접 조인트 형상을 분석하여 용접 파라미터를 조절하는 지능형 알고리즘 기반의 폐쇄 루프 시스템을 개발했습니다.
  • 핵심 돌파구: 개발된 로봇 시스템은 가변적인 용접 갭을 실시간으로 감지하고, 이에 맞춰 용접 전류, 듀티 사이클, 와이어 공급 속도를 자동으로 조절하여 숙련된 용접사와 유사한 수준의 고품질 용접을 성공적으로 수행했습니다.
  • 핵심: 본 연구는 복잡한 형상과 변수가 많은 고부가가치 TIG 용접 공정에 지능형 자동화를 적용할 수 있는 실질적인 프레임워크를 제시합니다.

과제: 왜 이 연구가 CFD 전문가에게 중요한가

TIG(Tungsten Inert Gas) 용접은 다른 아크 용접에 비해 월등히 높은 품질의 결과물을 제공하여 항공우주 산업에서 광범위하게 사용됩니다. 그러나 항공우주 부품 용접은 엄격한 공차, 복잡한 3D 형상, 부품 간의 미세한 부정합(fit-up) 등 다양한 변수로 인해 자동화가 매우 어려운 분야로 남아있습니다.

현재 산업에서 사용되는 대부분의 용접 로봇은 사전 프로그래밍된 경로와 설정값에 따라 움직이는 ‘블라인드(Blind)’ 로봇입니다. 이러한 로봇은 예기치 않은 형상 변화나 갭 변동에 적응할 수 없어 항공우주 분야에서 요구하는 정밀도와 품질을 만족시키기 어렵습니다. 결국, 고가의 항공우주 부품 용접은 여전히 비용이 많이 들고 수급이 어려운 숙련된 용접사의 수작업에 의존하고 있는 실정입니다. 이러한 산업적 난제를 해결하기 위해, 용접 조인트의 형상을 실시간으로 감지하고 숙련된 용접사처럼 지능적으로 판단하여 용접 공정을 제어하는 ‘적응형 로봇 TIG 용접‘ 기술의 필요성이 절실히 요구되었습니다.

접근 방식: 연구 방법론 분석

본 연구는 지능형 적응형 로봇 TIG 용접 시스템을 구축하기 위해 하드웨어와 소프트웨어를 통합한 포괄적인 접근 방식을 채택했습니다.

  • 핵심 장비 구성:
    • 모션 제어: 6축 산업용 로봇(KUKA KR 16)을 사용하여 용접 토치와 센서의 정밀한 3D 움직임을 구현했습니다.
    • 용접 시스템: 자동화 모드 제어가 가능한 Fronius Magicwave 4000 TIG 용접기와 푸시-풀(push-pull) 방식의 와이어 공급 장치를 사용했습니다.
    • 3D 비전 센서: Micro-Epsilon의 레이저 삼각 측량 기반 스캐너(Scan control 2900-25)를 사용하여 용접 전 조인트의 3D 형상 데이터를 실시간으로 수집했습니다.
    • 데이터 수집 및 제어: National Instruments (NI) DAQ 시스템과 HKS 용접 센서를 통해 용접 전류, 전압 등 핵심 공정 데이터를 모니터링했습니다.
  • 시스템 통합 및 제어: 모든 하드웨어는 단일 워크스테이션(PC)에 연결되었으며, LabVIEW를 사용하여 개발된 중앙 제어 소프트웨어를 통해 통합적으로 제어되었습니다. 이 소프트웨어는 로봇 제어, 레이저 스캐너 데이터 수집, 실시간 형상 특징 추출, 용접기 파라미터 설정 등 모든 프로세스를 자동화하는 역할을 수행합니다.
  • 2단계 접근법 (Two-Pass Approach): 항공우주 산업의 높은 품질 요구사항을 충족시키기 위해 ‘스캔 후 용접’ 방식을 채택했습니다.
    1. 스캔 패스(Scan Pass): 로봇이 용접 경로를 따라 이동하며 레이저 스캐너로 조인트의 3D 형상(갭 변화, 정렬 상태 등)을 정밀하게 측정합니다.
    2. 용접 패스(Weld Pass): 스캔 단계에서 얻은 형상 데이터를 기반으로, 개발된 알고리즘이 각 위치에 최적화된 용접 파라미터를 계산하고 이를 적용하여 로봇이 용접을 수행합니다.

이러한 접근법은 용접 시작 전에 조인트의 상태를 완벽하게 파악하고 지능적인 결정을 내릴 수 있게 하여, 고가의 부품을 폐기할 위험을 최소화합니다.

돌파구: 주요 연구 결과 및 데이터

본 연구는 숙련된 용접사의 기술을 정량화하고, 이를 기반으로 한 적응형 로봇 시스템의 우수성을 데이터로 입증했습니다.

결과 1: 숙련된 용접사의 기술 정량화 및 제어 전략 도출

자동화의 기반을 마련하기 위해, 연구진은 초보, 중급, 숙련된 용접사의 수동 TIG 용접 과정을 정밀하게 분석했습니다. 그 결과, 숙련된 용접사는 복잡한 용접 환경을 단순화하는 독특한 제어 전략을 사용한다는 사실을 발견했습니다.

  • 핵심 파라미터 집중: 숙련된 용접사는 용접 전류와 와이어 공급 속도를 가장 중요한 변수로 삼아 적극적으로 제어했으며, 용접 속도나 토치 높이(전압)는 비교적 일정하게 유지했습니다 (그림 4-10, 4-17 참조).
  • 시각적 피드백 의존: 용접 풀(weld pool)의 형태와 크기를 시각적으로 관찰하는 것이 파라미터를 조절하는 가장 중요한 피드백 메커니즘이었습니다 (그림 4-28 참조).

이러한 발견은 로봇 제어 알고리즘을 개발할 때 모든 변수를 동시에 제어하려는 복잡한 접근 대신, 가장 영향력 있는 핵심 파라미터(용접 전류, 와이어 공급 속도, 듀티 사이클)에 집중하는 것이 더 효율적이라는 중요한 단서를 제공했습니다.

Figure 6-34: extracted points at vertical offset orientation
Figure 6-34: extracted points at vertical offset orientation

결과 2: 적응형 로봇 용접 시스템의 성능 입증

연구진은 0.25mm에서 2.5mm까지 갭이 변하는 까다로운 맞대기 용접(butt joint) 시편을 사용하여 네 가지 다른 용접 접근법의 성능을 비교했습니다.

  1. 일정 파라미터 접근법: 용접 품질이 불균일하고 일부 구간에서 용접이 제대로 형성되지 않았습니다 (그림 9-14(a)).
  2. 구간별 파라미터 접근법 (산업 방식): 품질은 개선되었으나, 파라미터가 변경되는 구간에서 과도한 열 입력으로 인한 결함이 관찰되었습니다 (그림 9-14(b)).
  3. 숙련된 용접사 접근법: 만족스러운 용접 품질을 보였으나, 갭 변화에 따라 용접 비드 폭이 다소 불균일했습니다 (그림 9-14(c)).
  4. 적응형 제어 접근법 (본 연구): 개발된 시스템은 갭 변화를 실시간으로 반영하여 파라미터를 연속적으로 조절함으로써, 전체 용접 길이에 걸쳐 가장 일관된 비드 폭과 열영향부(HAZ)를 형성했습니다 (그림 9-14(d)).

인장 강도 테스트 결과, 적응형 제어 접근법으로 제작된 시편은 숙련된 용접사가 제작한 시편과 유사한 높은 기계적 강도와 연신율을 보였으며, 다른 두 접근법에 비해 월등히 우수한 성능을 나타냈습니다 (그림 9-15 참조). 이는 본 연구에서 개발한 시스템이 단순한 경로 추종을 넘어, 기계적 특성까지 고려한 고품질 용접을 수행할 수 있음을 증명합니다.

R&D 및 운영을 위한 실질적 시사점

  • 공정 엔지니어: 본 연구의 경험적 모델(Chapter 8)은 가변 갭 용접 시 듀티 사이클, 용접 전류, 와이어 공급 속도가 품질을 결정하는 가장 중요한 제어 변수임을 보여줍니다. 이는 복잡한 용접 공정의 최적화 변수를 단순화하여 더 빠르고 효과적인 공정 개발을 가능하게 합니다.
  • 품질 관리팀: 그림 9-15의 하중-연신율 그래프는 개발된 적응형 접근법이 숙련된 용접사와 동등한 수준의 반복 가능한 기계적 강도를 달성함을 보여줍니다. 이는 자동화된 용접 공정에 대한 새로운 품질 검사 기준을 수립하는 데 중요한 데이터가 될 수 있습니다.
  • 설계 엔지니어: 이 시스템은 롤(roll), 피치(pitch), 요(yaw)와 같은 다양한 조인트 부정합을 정량화하고 이에 적응할 수 있습니다 (Chapter 7). 이는 설계 단계에서 제조 공차에 더 유연하게 대응할 수 있는 설계를 가능하게 하여 생산 수율을 높이는 데 기여할 수 있습니다.

논문 정보


Intelligent 3D Seam Tracking and Adaptable Weld Process Control for Robotic TIG Welding

1. 개요:

  • 제목: Intelligent 3D Seam Tracking and Adaptable Weld Process Control for Robotic TIG Welding
  • 저자: Prasad Manorathna
  • 발행 연도: 2015
  • 학술지/학회: Loughborough University (박사 학위 논문)
  • 키워드: Robotic TIG welding, 3D seam tracking, adaptable weld process control, intelligent automation, human skill capture, empirical modelling

2. 초록:

텅스텐 불활성 가스(TIG) 용접은 다른 차폐 아크 용접 유형에 비해 고품질의 용접부를 생산하는 독특한 능력으로 인해 항공우주 분야에서 광범위하게 사용됩니다. 그러나 대부분의 TIG 용접은 수동으로 수행되며 다른 용접 기술만큼 자동화 수준을 달성하지 못했습니다. 이는 주로 공정 지식의 부족과 부품 조립 시 발생하는 불일치와 같은 복잡성에 대한 적응력 부족 때문입니다. 최근 자동화의 발전으로 센서를 통해 지능적인 의사결정이 필요한 복잡한 작업에 산업용 로봇을 사용할 수 있게 되었습니다. 항공우주 부품의 TIG 용접과 같은 응용 분야는 엄격한 공차를 요구하며, 예상치 못한 변화에 대응하고 복잡한 형상의 용접을 수행하기 위한 지능적인 의사결정 능력이 필요합니다. 이러한 의사결정 절차는 용접 프로파일 형상에 대한 피드백을 기반으로 해야 합니다.

본 논문에서는 6축 산업용 로봇(KUKA KR 16)과 레이저 삼각 측량 기반 센서(Micro-Epsilon Scan control 2900-25)를 사용하여 실시간 위치 기반 폐쇄 루프 시스템을 개발했습니다. National Instruments 데이터 수집 시스템(NI DAQ)을 사용하여 입출력 제어를 수행했습니다. 용접은 푸시-풀 와이어 공급 시스템이 장착된 Fronius Magicwave 용접 시스템을 사용하여 수행되었습니다. 프로젝트 계획, 장비 선정, 구매, 설계, 시스템 통합 및 전체 로봇 TIG 용접 셀 설정이 박사 과정 연구 작업에 포함됩니다. 본 연구에서는 3차원(3D) 용접 조인트의 조인트 프로파일을 찾고 경로를 추적하기 위한 새로운 알고리즘을 개발했습니다. 또한 실시간으로 조인트 특징을 추출하는 알고리즘도 개발되었습니다. 중요한 용접 품질 특성을 예측하고 용접 조인트 형상을 기반으로 용접 기계 설정을 추정하기 위한 경험적 모델이 개발되었습니다. 개발된 로봇 TIG 용접 시스템은 지능형 알고리즘과 함께 가변 갭 용접 조인트의 용접을 만족스러운 결과로 수행할 수 있었으며, 이는 시각적 외관, 용접 비드 치수 및 기계적 강도 면에서 숙련된 수동 용접사와 밀접하게 관련되었습니다.

이 연구는 TIG 용접의 맥락에서 제시되었지만, 이 개념은 모든 아크 용접 공정 및 로봇 실란트 적용, 스프레이 페인팅과 같은 다른 응용 분야에도 적용 가능합니다.

3. 서론:

대부분의 현대 고부가가치 제조 시스템은 여전히 수동 작업의 기술과 유연성에 크게 의존하고 있습니다. 그러나 많은 경우, 지능형 자동화는 운영 효율성을 개선하고 사람들이 비위생적이거나 어렵고 위험한 작업 환경에서 일할 필요를 없애줌으로써 인간의 작업을 대체하는 더 유리한 대안이 될 수 있습니다. 용접은 가장 역동적이고 복잡한 제조 공정 중 하나이므로 자동화하기 어렵습니다. 산업 기반 응용 분야에서의 용접 자동화는 엔지니어들이 특정 용접 공정, 재료, 크기, 두께 및 용접 형상을 고려해야 하므로 더욱 어렵습니다. 이러한 추가 제약 조건은 자동화를 더 어렵게 만들 수 있습니다.

TIG 용접은 다른 용접 공정보다 더 많은 공정 변수를 포함하므로 자동화하기 매우 어려운 것으로 간주됩니다. TIG 용접은 우수한 용접 품질 때문에 다른 용접 공정으로 대체되기도 어렵습니다. 따라서 더 높은 정밀도와 품질이 요구되는 항공우주 부품 용접과 같은 응용 분야에서는 계속해서 TIG 용접을 사용합니다. 그러나 TIG 용접 로봇은 아직 수동 TIG 용접만큼의 높은 정밀도와 품질을 충족할 수 있는 능력이 없기 때문에, 숙련된 수동 용접사들이 여전히 고급 항공우주 부품 용접에서 주도적인 역할을 하고 있습니다. 선진국에서는 숙련 노동력이 비싸고, 이는 저임금 지역과의 지속적인 경쟁에 직면해 있어 산업계가 TIG 용접 자동화를 지속적으로 모색하게 만들었습니다.

현재 산업에서 사용되는 로봇은 형상 변화에 적응할 수 없기 때문에 “블라인드(Blind)” 용접 로봇이라고 불립니다. 센서가 광범위하게 사용되었지만, 센서 피드백은 적응성을 달성하기 위해 만족스러운 수준으로 사용되지 않았습니다. 속도, 크기, 비용 및 계산 능력과 같은 요소들이 성공적인 자동화를 달성하지 못한 주요 제한 요인이었습니다. 이는 또한 완전 자동화된 용접 로봇의 산업적 실현을 상당히 어려운 과제로 만들었습니다. 따라서 현재 용접 궤적과 용접 공정 변수는 작업자에 의해 사전 프로그래밍됩니다. 이 방법은 항공우주 부품 용접에 필요한 품질을 제공하지 못했습니다.

4. 연구 요약:

연구 주제의 배경:

TIG 용접은 항공우주 산업에서 고품질이 요구되는 핵심 공정이지만, 공정의 복잡성과 변수(부품 부정합 등)로 인해 자동화가 더디게 진행되어 왔습니다. 현재의 ‘블라인드’ 로봇 용접 시스템은 이러한 변수에 대응할 수 없어, 생산성과 품질 향상을 위해 센서 기반의 지능형 적응형 자동화 기술이 필요합니다.

이전 연구 현황:

과거 용접 자동화 연구는 주로 MIG 용접에 집중되었으며, TIG 용접 자동화에 대한 연구는 매우 제한적이었습니다. 기존 연구들은 주로 용접 공정 변수가 용접 품질에 미치는 영향을 이해하는 데 초점을 맞추었으나, 이를 실제 로봇 시스템에 적용하여 조인트 형상 변화에 실시간으로 적응하는 완전한 솔루션을 제시한 사례는 거의 없었습니다. 특히, 실제 용접 조건이 아닌 비드-온-플레이트(bead-on-plate) 기법을 사용한 연구가 많아 산업 적용에 한계가 있었습니다.

연구 목적:

본 연구의 주된 목적은 숙련된 수동 용접사와 유사한 품질로 까다로운 용접 작업을 수행할 수 있는 완전한 적응형 지능형 TIG 용접 로봇 시스템(MCRL 3 수준)을 개발하는 것입니다. 이를 위해 다음 세부 목표를 설정했습니다: 1. 수동 TIG 용접에서 인간의 기술과 지식을 정량적으로 분석. 2. 3D 레이저 스캐너의 성능을 평가하고 데이터 품질을 최적화. 3. 3D 용접 조인트 형상을 실시간으로 추출하고 정량화하는 알고리즘 개발. 4. 용접 공정 변수와 용접 품질(비드 형상, 강도) 간의 관계를 설명하는 경험적 모델 구축. 5. 조인트 형상 피드백을 기반으로 용접 파라미터를 지능적으로 선택하는 적응형 제어 전략 개발 및 검증.

핵심 연구:

본 연구의 핵심은 6축 로봇, 3D 레이저 스캐너, TIG 용접기를 통합한 폐쇄 루프 제어 시스템을 구축하고, 이를 제어하는 지능형 소프트웨어를 개발하는 것입니다. 소프트웨어는 (1) 레이저 스캔을 통해 용접 조인트의 3D 형상과 부정합(fit-up)을 정밀하게 측정하고, (2) 개발된 특징 추출 알고리즘으로 갭, 각도 등 주요 특징을 실시간으로 분석하며, (3) 사전 구축된 경험적 모델을 사용하여 각 위치의 형상에 최적화된 용접 파라미터(전류, 듀티 사이클, 와이어 공급 속도)를 지능적으로 계산하고, (4) 계산된 파라미터를 용접기에 실시간으로 전송하여 용접 품질을 제어하는 일련의 과정을 자동으로 수행합니다.

5. 연구 방법론

연구 설계:

본 연구는 세 단계로 구성된 실험적 설계를 따랐습니다. 1. 1단계 (인간 기술 분석): 수동 TIG 용접 실험을 통해 숙련도(초보, 중급, 숙련)에 따른 용접사의 공정 파라미터 제어 방식을 정량적으로 분석하고, 자동화를 위한 핵심 제어 전략을 도출했습니다. 2. 2단계 (시스템 구축 및 2D 트래킹): KUKA 로봇, Fronius 용접기, NI DAQ, 센서 등을 통합하여 기본 시스템을 구축하고, 2D 카메라를 이용한 초기 심 트래킹 기술을 개발했습니다. 3. 3단계 (3D 트래킹 및 적응형 제어): 3D 레이저 스캐너를 통합하고, 3D 특징 추출 및 심 트래킹 알고리즘을 개발했습니다. 또한, 용접 품질 예측을 위한 경험적 모델을 구축하고, 이를 기반으로 가변 갭에 대응하는 완전한 적응형 공정 제어 시스템을 완성했습니다.

데이터 수집 및 분석 방법:

  • 데이터 수집: HKS 용접 센서와 NI DAQ 시스템을 사용하여 용접 전류 및 전압 데이터를 1kHz 샘플링 속도로 수집했습니다. Micro-Epsilon 3D 레이저 스캐너를 사용하여 용접 조인트의 3D 프로파일 데이터를 획득했습니다. 또한, 카메라를 통해 용접 과정과 토치 각도를 영상으로 기록했습니다. 용접 후 시편은 인장 시험기(INSTRON 8801)를 사용하여 기계적 강도를 측정했습니다.
  • 데이터 분석: 수집된 데이터는 LabVIEW와 Matlab을 사용하여 분석되었습니다. 노이즈 제거를 위해 저역 통과 필터(low-pass filter)가 적용되었습니다. 용접사의 기술 분석과 용접 품질에 미치는 파라미터의 영향을 정량화하기 위해 분산 분석(ANOVA)과 같은 통계적 기법이 사용되었습니다. 타구치(Taguchi) 방법을 적용하여 최소한의 실험으로 공정 변수 간의 관계를 모델링하는 경험적 모델을 개발했습니다.

연구 주제 및 범위:

본 연구는 316L 스테인리스강 박판(1.5mm 두께)의 맞대기(butt), 겹치기(lap), 필렛(fillet) 조인트에 대한 로봇 TIG 용접을 다룹니다. 특히, 용접 갭이 0.25mm에서 2.5mm까지 변하는 가변 갭 맞대기 조인트에 대한 적응형 용접에 중점을 둡니다. 제어 대상이 되는 주요 공정 변수는 용접 전류, 배경 전류, 펄스 주파수, 듀티 사이클, 와이어 공급 속도입니다. 용접 속도, 아크 갭 등 다른 변수들은 일정하게 유지되었습니다. 연구의 핵심은 조인트 형상(특히 갭)의 변화를 감지하여 이들 핵심 변수를 실시간으로 최적화하는 것입니다.

6. 주요 결과:

주요 결과:

  • 본 연구를 통해 개발된 지능형 로봇 TIG 용접 시스템은 가변 갭 맞대기 조인트 용접에서 숙련된 용접사와 유사하거나 더 일관된 용접 품질을 달성했습니다.
  • 분산 분석(ANOVA) 결과, 용접 비드 형상과 강도에 가장 큰 영향을 미치는 파라미터는 듀티 사이클, 용접 전류, 와이어 공급 속도 순이었으며, 배경 전류와 펄스 주파수의 영향은 미미했습니다. 이는 제어 문제의 복잡성을 줄이는 데 중요한 단서를 제공했습니다.
  • 타구치 방법을 사용하여 개발된 상호작용(interaction) 다항식 모델은 용접 비드 폭, 높이, 용입 및 인장 강도를 높은 정확도(R² 값 0.83~0.99)로 예측할 수 있었습니다.
  • 3D 레이저 스캐너 성능 평가를 통해, 최적의 데이터 품질을 얻기 위한 조건(스탠드오프 거리 67-68mm, 노출 시간 1-2ms, 임계 입사각 15°-25° 회피 등)을 확립했습니다.
  • 개발된 3D 특징 추출 알고리즘은 노이즈나 데이터 손실이 있는 상황에서도 V, U, I 형상의 용접 조인트 특징을 x축에서 ±38µm, z축에서 ±127µm의 최대 평균 제곱 오차(MSE)로 정확하게 추출했습니다.
  • 4가지 용접 접근법(일정 파라미터, 산업(구간별), 숙련 용접사, 적응형 제어) 비교 결과, 본 연구에서 제안한 적응형 제어 방식이 가장 균일한 비드 형상과 열영향부를 보였으며, 기계적 강도 또한 숙련 용접사와 동등한 수준으로 가장 우수했습니다.
Figure 9-15: Load-extension graphs obtained for welds carried out with industrial approach and continuous welding
Figure 9-15: Load-extension graphs obtained for welds carried out with industrial approach and continuous welding

Figure List:

  • Figure 1-1: An image of an aero-engine section showing important parts
  • Figure 1-2: Manufacturing capability readiness levels
  • Figure 1-3: Intelligent and adaptable robotic TIG welding system developed by the author
  • Figure 1-4: Project plan
  • Figure 2-1: Robot work volume
  • Figure 2-2: Stereo vision principle
  • Figure 2-3: Laser scanner principle
  • Figure 2-4: TIG welding principle
  • Figure 2-5: First welding robot developed by ABB (IRB 6)
  • Figure 2-6: Collaborative robotic welding
  • Figure 2-7: Underwater welding
  • Figure 2-8: human-robot collaboration in welding
  • Figure 2-9: Stereo vision system correcting for path
  • Figure 2-10: Laser scanner inspecting prior to welding
  • Figure 3-1: Summarized system integration diagram
  • Figure 3-2: CAD design of the welding cell
  • Figure 3-3: Photographic view of the welding equipment (a) Fronius Magicwave 4000 welding machine (b) Wire feeder unit
  • Figure 3-4: Different welding torches used for different phases of the project (a) Manual welding torch, (b) Robocta TTW 4500 robotic torch
  • Figure 3-5: NI DAQ card and PXIe chassis system
  • Figure 3-6: Hall effect current sensor (a) Hall effect principle, (b) HKS process sensor
  • Figure 3-7: Principal of welding voltage sensing
  • Figure 3-8: Block diagram for NI DAQ system integration with the PC
  • Figure 3-9: Signal channels without noise filtering at dwell state (a) Welding current signal in frequency domain, (b) Welding voltage channel in frequency domain
  • Figure 3-10: process parameters at dwell state
  • Figure 3-11: process parameters during welding
  • Figure 3-12: Current and voltage signals in frequency domain (a) welding current during welding, (b) welding voltage during welding
  • Figure 3-13: Acquired signals after applying filtering
  • Figure 3-14: Welding spectrum
  • Figure 3-15: (a)Band-pass filter, (b) lens and camera
  • Figure 3-16: Camera with illumination source for weld area viewing
  • Figure 3-17: The triangulation principle of laser scanners
  • Figure 3-18: The triangle shape of the scanning beam
  • Figure 3-19: KUKA KR16 robot and robot coordinate systems
  • Figure 3-20: Network connection diagram
  • Figure 3-21: System integration diagram
  • Figure 3-22: Control diagram of the system
  • Figure 3-23: Welding fixture
  • Figure 3-24: Software integration diagram
  • Figure 3-25: 3D Seam tracking software module
  • Figure 3-26: Sensor feedback software module
  • Figure 3-27: 3D Feature extraction software module
  • Figure 3-28: Weld process control software module
  • Figure 4-1: Output of manual and robotic welding
  • Figure 4-2: System diagram of the experimental setup (a) block diagram, (b) image of the physical set-up
  • Figure 4-3: Three weld joint selected for testing (a) Butt joint, (b) Lap joint, (c) Fillet joint
  • Figure 4-4: An image of the camera setup for testing a welder
  • Figure 4-5: Torch and filler wire position definition
  • Figure 4-6: Typical welding diagram
  • Figure 4-7: Butt weld completed by a novice welder (a) welding current and voltage variation against time, (b) top view of the weld, (c) bottom view of the weld
  • Figure 4-8: Butt weld completed by a semi-skilled welder (a) welding current and voltage variation against time, (b) top view of the weld, (c) bottom view of the weld
  • Figure 4-9: Butt weld completed by a skilled welder (a) welding current and voltage variation against time, (b) top view of the weld, (c) bottom view of the weld
  • Figure 4-10: Average welding current used by different welders
  • Figure 4-11: Standard deviation in welding current for different welders
  • Figure 4-12: Different manual welding techniques (a) pulse created by the manual welder from the foot pedal, (b) normal welding technique used by welders
  • Figure 4-13: Pictures of bottom side for different weld techniques (a) pulsed current, (b) constant current
  • Figure 4-14: Indirect effect of pulsing on the voltage signal
  • Figure 4-15: Average voltage measured for different skill levels
  • Figure 4-16: Standard deviation in voltage for different skill levels
  • Figure 4-17: Average welding speed maintained by different welders
  • Figure 4-18: Effect of welding speed on weld finish (a) Higher speed (b) average speed used by a skilled welder
  • Figure 4-19: Filler wire feed frequency and consumption rate for different welders (a) filler wire feed frequency, (b) filler wire consumption rate
  • Figure 4-20: (a) Globular droplets from melting the wire from the arc (b) a weld performed by feeding the wire in to the melt pool
  • Figure 4-21: Torch stand-off distance for different welders
  • Figure 4-22: Images taken for different skill levels (a) novice welder, (b) semi-skilled welder, (c) skilled welder
  • Figure 4-23: Torch/filler wire orientation
  • Figure 4-24: Average current variation against joint type
  • Figure 4-25: Average voltage against joint type for different welders
  • Figure 4-26: Filler wire consumption rate for different weld joints
  • Figure 4-27: Welding speeds used for different weld joint types
  • Figure 4-28: Decision making criteria for critical tasks identified in TIG welding
  • Figure 4-29: Sample weld joint to check human adaptability
  • Figure 4-30: Experimental results of welding corners (a) welded sample, (b) trial-1, (c) trial-2, (d) trial-3
  • Figure 5-1: Photographic view of the experimental set-up
  • Figure 5-2: Photographic view of the Scan-control software
  • Figure 5-3: Calibration samples (a) feeler gauge set, (b) slip gauge set
  • Figure 5-4: Specified and measured working ranges of the laser scanner (a) specified laser scanner span, (b) actual span
  • Figure 5-5: Setup for vertical resolution measurement
  • Figure 5-6: Percentage error in measurements along z-axis
  • Figure 5-7: Setup measuring a metric feeler gauge and percentage error in measurements
  • Figure 5-8: Percentage error along the x-axis of the laser scanner
  • Figure 5-9: Percentage error against exposure time
  • Figure 5-10: Percentage error in measurements for checking repeatability
  • Figure 5-11: Measurement error at different illumination conditions
  • Figure 5-12: Inappropriate data from a laser scanner
  • Figure 5-13: Number of missing data points against stand-off distance
  • Figure 5-14: Arrangement for measurements at different steepness angles
  • Figure 5-15: Results of number of missing data points measured against steepness angle
  • Figure 5-16: Data at various steepness angles
  • Figure 5-17: Arrangement for measurements at different incidences angles
  • Figure 5-18: Raw images obtained from the laser scanner at different incidence angles
  • Figure 5-19: Effect of incidence angle on data acquisition
  • Figure 5-20: Effect of incidence angle on data acquisition (a) number of noisy data points (b)noisy data percentage
  • Figure 5-21: Different surface finished samples
  • Figure 5-22: Results obtained for different surface finish
  • Figure 5-23: Raw images captured at different exposure levels
  • Figure 5-24: Effect of exposure time on data acquisition (a) number of noisy data points (b) noisy data percentage
  • Figure 5-25: U-groove for finding optimum exposure time
  • Figure 5-26: Missing and noisy data percentage against exposure time
  • Figure 5-27: Data acquisition performance against specified threshold value (a) number of noisy data points (b) noisy data percentage
  • Figure 6-1: Experimental setup used for joint feature extraction
  • Figure 6-2: Photographic view of the experimental setup
  • Figure 6-3: Sequence of operations for robotic scanning and feature extraction
  • Figure 6-4: Sample weld groove types used for feature extraction (a) I groove, (b) V groove, (c) U groove
  • Figure 6-5: Features to be extracted from a weld joint
  • Figure 6-6: Data cropping process for outlier removal (a) data cropping process (b) resulting data
  • Figure 6-7: Gradient values along the 2D point cloud (dy/dx)
  • Figure 6-8: horizontal offsets between two consecutive laser points (dx)
  • Figure 6-9: Extracted feature points (.)
  • Figure 6-10: Feature extraction steps for the U-groove (a) raw data, (b) cropped data, (c) gradient (dy/dx), (d) Offset between consecutive laser points (dx), (e) extracted feature points (.)
  • Figure 6-11: Feature extraction of a I-butt joint (a)raw data, (b) dx, (c) Detected points (*)
  • Figure 6-12: Continuous weld groove edge and detected noisy data point
  • Figure 6-13: Filtering applied in both x and z axis separately (a) x-y raw data, (b) x-y data after filtering, (c) x-y data after fitting, (d) y-z raw data, (e) y-z data after outlier removal, (f) y-z data after fitting
  • Figure 6-14: Extracted feature points (a) raw data, (b) fitted data
  • Figure 6-15: Possible joint configurations
  • Figure 6-16: Roll angle measurement (a) physical set-up, (b) roll angle
  • Figure 6-17: Roll angle measurement along the weld joint
  • Figure 6-18: Pitch angle measurement (a) physical set-up, (b)pitch angle
  • Figure 6-19: Line fitting for pitch angle measurement
  • Figure 6-20: Yaw angle measurement (a) physical set-up, (b) yaw angle
  • Figure 6-21: Line fitting for yaw angle measurement
  • Figure 6-22: Vertical offset measurement (a) physical set-up, (b) vertical offset
  • Figure 6-23: Vertical offset measurement along the weld joint
  • Figure 6-24: Extracted features of selected weld joint type (a) I-groove, (b) V-groove, (c) U-groove
  • Figure 6-25: Mean square error in detected points for different groove types
  • Figure 6-26: Gap measurements (a) physical setup (b) gap measured between top edges, (c) gap measured between bottom edges (b)
  • Figure 6-27: Gap measurements using feature detection algorithms
  • Figure 6-28: extracted points at roll orientation
  • Figure 6-29: Average roll angle measurement accuracy (a) absolute error, (b) percentage error
  • Figure 6-30: extracted points at pitch orientation
  • Figure 6-31: Pitch angle measurement accuracy (a) absolute error, (b) percentage error
  • Figure 6-32: extracted points at yaw orientation
  • Figure 6-33: yaw angle measurement accuracy (a) absolute error, (b) percentage error
  • Figure 6-34: extracted points at vertical offset orientation
  • Figure 6-35: vertical offset measurement accuracy (a) absolute error, (b) percentage error
  • Figure 6-36: Feature extraction in I and U grooves at various joint fit-ups
  • Figure 7-1: Coordinate systems in the robotic welding system
  • Figure 7-2: 2D seam tracking setup
  • Figure 7-3: 2D seam tracking sequence
  • Figure 7-4: 2D image processing for seam tracking (a) image processing sequence, (b) detected edges
  • Figure 7-5: 2D seam tracking results
  • Figure 7-6: Mean square error in x-y coordinates in 2D seam tracking
  • Figure 7-7: Setup for checking gap sensing performance
  • Figure 7-8: Results of 2D gap sensing
  • Figure 7-9: Seam tracking methodology in x-axis
  • Figure 7-10: Diagram showing the point used for seam tracking
  • Figure 7-11: Software operating sequence for 3D seam tracking
  • Figure 7-12: Look-ahead distance
  • Figure 7-13: Torch placement during seam tracking for robotic welding
  • Figure 7-14: Points used for guiding the welding torch (a) I-groove, (b) V-groove, (c) U-groove
  • Figure 7-15: Seam tracking performed at various joint fit-ups (a) roll, (b) pitch, (c) yaw, (d) vertical offset, (e) horizontal offset
  • Figure 7-16: Seam tracking performance check for possible joint fit-ups (a) horizontal offset, (b) vertical offset, (c) roll, (d) pitch, (e) yaw
  • Figure 7-17: Seam tracking performed on some complex paths (a) complex 2D, (b) 3D curve, (c) sinusoidal
  • Figure 7-18: Robotic welding procedure
  • Figure 7-19: Robotic welding system with fixture
  • Figure 7-20: Robotic welding results for all possible joint fit-ups (a) roll angle of 0.5˚, (b) pitch angle of 0.5˚, (c) yaw angle of 0.5˚, (d) vertical offset of 0.5mm, (e) horizontal offset of 0.5mm
  • Figure 8-1: Weld input out parameters
  • Figure 8-2: Weld bead parameters
  • Figure 8-3: Pulsing parameters
  • Figure 8-4: Method of measuring weld bead parameters (a) measurement of bead parameters from Scan-control software, (b) method of obtaining average value
  • Figure 8-5: Tensile testing machine
  • Figure 8-6: Specimen preparation for tensile testing
  • Figure 8-7: Load-extension graph and important parameters extracted
  • Figure 8-8: Weld bead measurements against welding current
  • Figure 8-9: Weld bead measurements against background current
  • Figure 8-10: Weld bead measurements against pulse frequency
  • Figure 8-11: Weld bead measurements against duty cycle
  • Figure 8-12: Weld bead measurements against wire feed rate
  • Figure 8-13: Mathematical model development procedure
  • Figure 8-14: Results from ANOVA test for two L8 table for weld bead dimensions (a) Bead width : Y1, (b) Penetration : Y2, (c) Bead height : Y3
  • Figure 8-15: F-value obtained from L8 Table
  • Figure 8-16: Results from ANOVA for L25 table for weld bead dimensions (a) bead width : Y1, (b) penetration : Y2, (c) bead height : Y3
  • Figure 8-17: F-values obtained from L25 table
  • Figure 8-18: Results from ANOVA for weld strength (a) load at maximum tensile extension: Y4, (b) maximum load:Y5, (c) load at break:Y6
  • Figure 8-19: F-values obtained for tensile strength
  • Figure 8-20: Actual and predicted results of weld bead dimensions using interaction model (a) Actual () and predicted () results of weld bead width, (b) Actual () and predicted () results of weld bead height, (c) Actual () and predicted () results of weld penetration
  • Figure 8-21: Actual () and predicted () results of tensile strength using interaction model
  • Figure 8-22: Results of bead width prediction from validation experiments
  • Figure 8-23: Results of bead height prediction from the validation experiments
  • Figure 8-24: Results of penetration prediction from the validation experiments
  • Figure 8-25: Results of tensile strength prediction from the validation experiments
  • Figure 9-1: Robotic welding system setup to carry out welding on a variable butt gap joint
  • Figure 9-2: Effect of process parameters on bead width
  • Figure 9-3: Cross-sectional profile of an irregular profile weld joint
  • Figure 9-4: Adjacent cross sectional profiles showing respective cross sectional area
  • Figure 9-5: Important parameters in the weld pool used for control
  • Figure 9-6: Methodology for adaptive welding
  • Figure 9-7: Best process parameters obtained against set gap
  • Figure 9-8: Adaptive weld process parameter control (a) welding current, (b) duty cycle, (c) wire feed rate
  • Figure 9-9: Selection of regions for robotic welding
  • Figure 9-10: Methodology of finding weld process parameters
  • Figure 9-11: Welding current variation along variable gap
  • Figure 9-12: Wire feed rate variation along variable gap
  • Figure 9-13: Welding speed variation along variable gap
  • Figure 9-14: Photographic views of the representative welds carried out using different approaches (a) Constant process parameter approach, (b) Segmented parameter (industrial) approach, (c) Skilled welder’s approach, (d) Adaptive control approach
  • Figure 9-15: Load-extension graphs obtained for welds carried out with industrial approach and continuous welding
  • Figure 10-1: Developed robotic TIG welding system as part of the work carried out for the PhD

7. 결론:

본 논문에서는 지능형 심 트래킹과 적응형 용접 공정 제어 기능을 갖춘 새로운 TIG 용접 로봇을 성공적으로 개발했습니다. MCRL 3 수준의 이 시스템은 산업계의 요구를 충족시키기 위한 연구 결과를 실제 적용 가능한 수준으로 끌어올렸습니다.

  • 인간 행동 분석: 숙련된 용접사는 용접 전류와 와이어 공급 속도를 우선적으로 제어하여 공정을 단순화한다는 것을 발견했으며, 이는 지능형 자동화의 제어 로직을 단순화하고 효율화하는 데 중요한 통찰을 제공했습니다.
  • 3D 비전 및 알고리즘: 3D 레이저 스캐너의 성능을 최적화하고, 개발된 3D 특징 추출 알고리즘을 통해 다양한 조인트 형상과 부정합을 µm 수준의 정밀도로 실시간 정량화하는 데 성공했습니다.
  • 수학적 모델 및 적응형 제어: 용접 공정 변수와 품질 특성 간의 관계를 규명하는 경험적 모델을 구축했으며, 이를 기반으로 한 역전파 알고리즘은 가변 갭 용접에서 용접 파라미터를 지능적으로 선택하고 제어할 수 있음을 입증했습니다.
  • 성능 검증: 제안된 적응형 용접 접근법은 기존의 일정 파라미터 방식이나 산업에서 사용하는 구간별 제어 방식보다 월등히 우수한 용접 품질을 보였으며, 그 결과는 숙련된 용접사의 결과와 동등하거나 일부 측면(일관성)에서는 더 나은 성능을 보였습니다.

결론적으로, 본 연구는 가변적인 갭을 가진 맞대기 용접을 자동으로 수행하는 것이 가능함을 보여주었으며, 지능적이고 적응적인 로봇 TIG 용접을 위한 방법론과 잠재력을 성공적으로 시연했습니다.

8. 참고문헌:

  1. G. Bolmsjo, A. Loureiro, and J. N. Pires, Welding robots technology, system issues and applications. Germany: Springer, 2006.
  2. S. B. Chen and J. Wu, Intelligentized Methodology for Arc Welding Dynamical Process. Springer Berlin / Heidelberg, 2009, pp. 221–273.
  3. A. Blomdell, G. Bolmsjo, T. Brogardh, M. Isaksson, R. Johansson, M. Haage, K. Nilsson, M. Olsson, Olsson T., A. Robertsson, and J. Wang, “Extending and industrial robot controller,” IEEE robotics and Automation Magazine, pp. 85–90, 2005.
  4. B.-B. Mathieu, “Top 5 Robotic Applications in the Aerospace Industry,” 2014. [Online]. Available: http://blog.robotiq.com/bid/70043/Top-5-Robotic-Applications-in-the-Aerospace-Industry.
  5. “Variations of Jet Engines,” 2009. [Online]. Available: http://lyle.smu.edu/propulsion/Pages/variations.htm.
  6. P. Sages, “Adaptive control techniques advance automatic welding,” Richmond, Calif, 2010.
  7. M. J. Ward, S. T. Halliday, and J. Foden, “A readiness level approach to manufacturing technology development in the aerospace sector: an industrial approach,” Proceedings of the Institution of Mechanical Engineers, Part B: Journal of Engineering Manufacture, vol. 226, no. 3, pp. 547–552, Sep. 2011.
  8. K. U. Fu, R. C. Gonzalez, and C. S. G. Lee, Robotics Control, Sensing, Vision, and Intelligence. Newyork: McGraw-Hill, 1987.
  9. “ISO 8373:2012,” 2012. [Online]. Available: https://www.iso.org/obp/ui/#iso:std:iso:8373:ed-2:v1:en.
  10. M. P. Groover, M. Weiss, R. N. Nagel, and N. G. Odrey, Industrial Robotics. Newyork: McGraw-Hill, inc, 1986.
  11. S. B. Niku, Introduction to Robotics Analysis, Control, Applications, 2nd ed. John Wiley and Sons Ltd, 2010.
  12. B. Williams, “Introduction to robotics,” Ohio, 2004.
  13. K. robot Group, “KRC2 edition 2005: Operating instructions,” 2008.
  14. Robotworx, “Robotworx: KUKA KR 16 L6 KRC2,” 2009. [Online]. Available: http://www.robots.com/kuka/kr-16-l6.
  15. N. Nayak and A. Ray, Intelligent Seam Tracking for Robotic Welding. Springer-Verlag, 1993.
  16. C. Walker, “Stereo vision basics.” [Online]. Available: http://chriswalkertechblog.blogspot.co.uk/2014/03/stereo-vision-basics.html.
  17. X. W.F., Z. Li, C. Perron, and X. W. Tu, “Switching Control of Image Based Visual Servoing in an Eye-in-Hand System Using Laser Pointer.” [Online]. Available: http://www.intechopen.com/books/motion-control/switching-control-of-image-based-visual-servoing-in-an-eye-in-hand-system-using-laser-pointer.
  18. A. C. Davies, The science and practice of welding, 10th ed. Cambridge university press, 1993.
  19. W. Alloys, “What is TIG welding introduction.” [Online]. Available: http://www.wballoys.co.uk/TIG/what-is-tig-welding.html.
  20. M. Massoud, Data Communication and Networking, A Practical Approach, Internatio. Cengage Learning, Inc, 2011.
  21. B. Komar, TCP/IP Network Administration, 3rd ed. Indianna, USA: SAMs, 1998.
  22. E. Preston, “Collaborative robotic plasma arc welding of fabricated titanium aero-engine structures,” University of Nottingham, 2011.
  23. Advanced manufacturing research centre, “Shaped metal deposition,” 2011. [Online]. Available: http://www.amrc.co.uk/featuredstudy/shaped-metal-deposition/.
  24. H. Abulrub, “Automated fusion welding,” 2013. [Online]. Available: http://www2.warwick.ac.uk/fac/sci/wmg/business/capabilities/database/?id=41.
  25. I. Brat, “Where Have All the Welders Gone, As Manufacturing and Repair Boom?,” The wall street journal, 2006. [Online]. Available: http://online.wsj.com/articles/SB115560497311335781.
  26. G. D. Uttrachi, “Welder Shortage Requires New Thinking,” 2007.
  27. A. B. Ernest, “Practical Welding Today – Automation training for a new workforce,” Fabricators and Manufacturers Association (FMA), 2008.
  28. C. E. Nolen, “Automated Welding Conceptual Study University of Tennessee,” University of Tennessee, 2007.
  29. ESAB, “Welding Automation Submerged Arc, TIG, MIG/MAG,” ESAB, Italy, 2011.
  30. A. R. Inc, “ABB Robots,” 2010. [Online]. Available: http://labintsis.com/?page_id=116&lang=en.
  31. G. Bolmsjö and M. Olsson, “Robotic Arc Welding — Trends and Developments for Higher Autonomy,” Lund University, 2001.
  32. Welding Technologies Group, “Robotic Welding : The new generation 3G Modular Welding Gun,” France.
  33. J. Villafuerte, “New Trends in Robotic Welding Technology,” Canadian Welding Association Journal, pp. 8–9, 2005.
  34. J. M. Pietrasz, “Robots in gas turbine manufacture,” Computing and control engineering, no. August, pp. 161–165, 1995.
  35. M. J. Pietrasz, “ROBOTS IN GAS TURBINE MANUFACTURE (INCLUDWG ESPRIT PROJECT INTERROB 6457),” London, 1994.
  36. G. Escobar-Palafox, R. Gault, and K. Ridgway, “Robotic manufacturing by shaped metal deposition: state of the art,” Industrial Robot: An International Journal, vol. 38, no. 6, pp. 622–628, 2011.
  37. S. Zheng, P. Dayau, and K. Min, “Precision welding for edge buildup and rapid prototyping,” Singapore, 1999.
  38. Fraunhofer Institute for Laser Technology ILT, “Laser cladding and integrated process chain for blade tip repairs.” [Online]. Available: http://www.ilt.fraunhofer.de/en/publication-and-press/annual-report/2010/annual-report-2010-p79.html.
  39. GKN Aerospace, “Automated robotic welding and assembly,” 2010. [Online]. Available: http://www.gkn.com/aerospace/products-and-capabilities/capabilities/metallics/automated-robotic-welding-and-assembly/Pages/default.aspx.
  40. G. Bolmsjo, A. Loureiro, and J. N. Pires, Welding Robots: Technology, System Issues and Application, 1st ed. Springer, 2006.
  41. Lincoln Electric, “Surface Tension Transfer.”
  42. J. Villafuerte, “Understanding Contact Tip Longevity of Gas Metal Arc Welding,” Welding Journal, pp. 29–35, 1999.
  43. T. W. Eagar, “Automated welding-research needs,” Cambridge, Massachusetts, 1981.
  44. R. Kovacevic, Y. M. Zhang, and S. Ruan, “Sensing and Control of Weld Pool Geometry for Automated GTA Welding,” ASME Transactions, vol. 117, pp. 201–222, 1995.
  45. K. A. Pietrzak and S. M. Packer, “Vision-Based Weld Pool Width Control,” ASME Transactions, vol. 116, pp. 86–92, 1994.
  46. G. Huismann, “Effects during the starting period of the MIG process,” in Proceedings of the 7th International Conference on Welding Research, 2005.
  47. Lincoln Electric Company, “Waveform Control Technology-Pulsed Spray Metal Transfer,” 2004.
  48. Yaskawa Motoman Robotics, “Motomount Fixture Mounting System.” [Online]. Available: http://www.motoman.com/products/positioners/fixturemounting.php.
  49. J. J. Madden, M. P. Stowell, P. Wu, H. Li, and L. He, “Welding Fixture with Active Position Adapting Functions,” Huazhong University of Science and Technology, 2007.
  50. P. Sicard and L. M.D., “An approach to an expert robot welding system,” in IEEE Transactions on Systems, Man and Cybernetics, 2002, pp. 204 – 222.
  51. J. Xie, “Dual Beam Laser Welding,” Welding Journal, pp. 223–230, 2002.
  52. S. Gao, M. Zhao, L. Zhang, and Y. Zou, “Dual-beam structured light vision system for 3D coordinates measurement,” in I7th World Congress on intelligent Control and Automation (WCICA), 2008, pp. 3687–3691.
  53. Lincoln Electric Company, “Tandem MIG-Garden State Chassis.”
  54. M. Vural, H. F. Muzafferoglu, and U. C. Tapici, “The effect of welding fixtures on welding distortions,” Journal of achievements in manufacturing and materials engineering, vol. 20, pp. 511–514, 2007.
  55. H. Long, D. Gery, A. Carlier, and P. G. Maropoulos, “Prediction of welding distortion in butt joint of thin plates,” Material and design, vol. 30, pp. 4126–4135, 2009.
  56. B. Catherine, “What is a Collaborative Robot?,” 2013. [Online]. Available: http://blog.robotiq.com/bid/66463/What-is-a-Collaborative-Robot.
  57. Robotiq, “Collaborative robots for welding?,” 2014. [Online]. Available: http://blog.robotiq.com/bid/72421/Collaborative-Robots-for-Welding.
  58. P. G. Ranky, “A method for planning industrial robot networks for automotive welding and assembly lines,” Industrial Robot: An International Journal, vol. 29, no. 6, pp. 530–537, 2002.
  59. T. David, T. A. Siewert, K. Matsubuchi, R. Su, L. Flanigan, and T. W. Eager, “In-Space Welding Visions & Realities,” in Thirtieth Space Congress “Yesterday’s Vision is Tomorrow’s Reality,” 1993.
  60. J. D. Majumdar, “Underwater welding – present status and future scope,” Journal of Naval Architecture and Marine Engineering, vol. 3, pp. 39–48, 2006.
  61. A. M. Joshi, “Underwater welding,” Bombay, 2007.
  62. Wikipedia, “Hyperbaric welding,” 2014. [Online]. Available: http://en.wikipedia.org/wiki/Hyperbaric_welding.
  63. K. Watson, “Extra-Vehicular Activity Welding Experiment,” alabama, 1989.
  64. A. Ryberg, M. Ericsson, A.-K. Christiansson, K. Eriksson, J. Nilsson, and M. Larsson, “Stereo vision for path correction in off-line programmed robot welding,” in Industrial Technology (ICIT), 2010 IEEE International Conference on, 2010, pp. 1700–1705.
  65. S. Wei, H. Ma, T. Lin, and S. Chen, “Autonomous guidance of initial welding position with ‘single camera and double positions’ method,” Sensor Review, vol. 30, no. 1, pp. 62–68, 2010.
  66. M. Dinham and G. Fang, “Low cost simultaneous calibration of a stereo vision system and a welding robot,” in IEEE International Conference on Robotics and Biomimetics (ROBIO), 2010, pp. 1452–1456.
  67. R. Y. Tsai, “A Versatile Camera Calibration Techniaue for High-Accuracy 3D Machine Vision Metrology Using Off-the-shelf TV Cameras and Lenses,” IEEE Journal of robotics and automation, vol. RA-3, no. 4, 1987.
  68. J. Heikkila, “Flexible camera calibration by viewing a plane from unknown orientations,” in The Proceedings of the Seventh IEEE International Conference on Computer Vision, 1999, vol. 1, pp. 666–673.
  69. Z. Zhang, “A Flexible New Technique for Camera Calibration,” IEEE Transactions on pattern analysis and machine intelligence, vol. 22, no. 11, pp. 1330–1334, 2000.
  70. P. Xu, X. Tang, and S. Yao, “Application of circular laser vision sensor (CLVS) on welded seam tracking,” Journal of Materials Processing Technology, vol. 205, no. 1–3, pp. 404–410, Aug. 2008.
  71. M. Dinham and G. Fang, “A low cost hand-eye calibration method for arc welding robots,” in Robotics and Biomimetics (ROBIO), 2009 IEEE International Conference on, 2009, pp. 1889–1893.
  72. Y. C. Shiu and S. Ahmad, “Calibration of wrist-mounted robotic sensors by solving homogeneous transform equations of the form AX=XB,” in Robotics and Automation, IEEE Transactions on, 1989, vol. 5, no. 1, pp. 16–29.
  73. F. Dornaika and R. Horaud, “Simultaneous robot-world and hand-eye calibration,” in IEEE Transactions on Robotics and Automation, 1998, vol. 14, no. 4, pp. 617–622.
  74. L. Suyi and W. Guorong, “Fast Calibration for Robot Welding System with Laser Vision,” in EEE Conference on Robotics, Automation and Mechatronics, 2008, pp. 706–710.
  75. L. He-xi, S. Yong-hua, W. Guo-rong, and Z. Xiao-xi, “Automatic Teaching of Welding Robot for 3-Dimensional Seam Based on Ant Colony Optimization Algorithm,” in Intelligent Computation Technology and Automation, 2009. ICICTA ’09. Second International Conference on, 2009, vol. 3, pp. 398–402.
  76. P. Komi, “Stereo Imaging and 3D Accuracy Assessment,” Loughborough University, 2005.
  77. Y. K. Liu, W. J. Zhang, and Y. M. Zhang, “A Tutorial on Learning Human Welder ’ s Behavior : Sensing , Modeling , and Control,” Kentucky, 2014.
  78. J. Van Essen, M. Van der Jagt, N. Troll, M. Wanders, M. S. Erden, T. Van Beek, and T. Tomiyama, “Identifying Welding Skills for Robot Assistance,” in IEEE/ASME International Conference on Mechtronic and Embedded Systems and Applications, 2008, pp. 437–442.
  79. V. Malin, “A new approach to the definition and classification of welding automation,” in 2nd International Conference on Development in Automated and Robotic Welding, 1987, pp. 179–190.
  80. S. B. Chen, D. B. Zhao, Y. J. Lou, and L. Wu, “Computer Vision Sensing and Intelligent Control of Welding Pool Dynamics,” in Robotic welding, intelligence and automation, vol. 299, T.-J. Tarn, C. Zhou, and S.-B. Chen, Eds. Springer Berlin / Heidelberg, 2004, pp. 25–55.
  81. M. Steve, C. H. L. Raymond, O. Kalin, G. Shixiang, D. David, N. Calvin, and A. Tao, “Realtime HDR (High Dynamic range) Video for Eyetap Wearable Computers, FPGA-based seeing Aids and Glasseyes ( EYETAPS ),” in 25th IEEE Canadian Conference on Electrical and Computer Engineering (CCECE), 2012.
  82. Y. M. Zhang and L. Kvidahl, “Skilled Human Welder Intelligence Modeling and Control : Part II — Analysis and,” The welding journal, vol. 93, pp. 162–170, 2014.
  83. S. Vaughan, “Taking a closer look at welding robotics and automation – Welding automation is gaining momentum,” The Fabricators and Manufacturers Association (FMA), 2002.
  84. S. Tachi, “Robotics Research toward Next-Generation Human-Robot Networked Systems,” in Proceedings of the 35th International Symposium on Robotics (ISR2004), 2004, pp. 1–8.
  85. R. Koeppe, D. Engelhardt, A. Hagenauer, P. Heiligensetzer, B. Kneifel, A. Knipfer, and K. Stoddard, “Robot-Robot and Human-Robot Cooperation in Commercial Robotics Applications,” Robotics research-Springer Tracts in Advanced Robotics, vol. 15, pp. 202–216, 2005.
  86. A. Mahajan and F. Figueroa, “Intelligent seam tracking using ultrasonic sensors for robotic welding,” Robotica, vol. 15, no. 3, pp. 275–281, May 1997.
  87. E. L. Estochen, C. P. Neuman, and F. B. Prinz, “Application of Acoustic Sensors to Robotic Seam Tracking,” IEEE transactions on industrial electronics, vol. 31, no. 3, pp. 219–224, 1984.
  88. FANUC Robotics, “Through Arc Seam Tracking (TAST),” 2005.
  89. A. Robotics, “ABB Robotics Introduces a ‘Through-the-Arc’ Seam-Tracking System,” 2010. [Online]. Available: http://weldingdesign.com/equipment-automation/news/abb-robotics-through-arc-seam-tracking-system-0629.
  90. M. de Graaf, R. Aarts, B. Jonker, and J. Meijer, “Real-time seam tracking for robotic laser welding using trajectory-based control,” Control Engineering Practice, vol. 18, no. 8, pp. 944–953, Aug. 2010.
  91. B. Cyganek and P. Siebert, An introduction to 3D computer vision techniques and algorithms, 2nd ed. Wiley Subscription Services, Inc., A Wiley Company, 2009.
  92. J. Wang, Q. Chen, and Z. Sun, “Multi-pass weld profile detection for spherical tank through ‘quasi double cameras’ stereovision sensor,” in Proceedings of the International Conference on Information Acquisition, 2004, pp. 376–379.
  93. L. Zhou, T. Lin, and S. B. Chen, “Autonomous Acquisition of Seam Coordinates for Arc Welding Robot Based on Visual Servoing,” Journal of intelligence and robotic systems, vol. 47, no. 3, pp. 239–255, 2006.
  94. T. De, X., Min, T., Xiaoguang, Z. and Zhiguo, “Seam tracking and visual control for robotic arc welding based on structured light stereovision,” International journal of automation and computing, vol. 1, no. 1, pp. 64–75, 2004.
  95. T. Borangiu and A. Dumitrache, “Robot Arms with 3D Vision Capabilities,” Bucharest, Romania, 2009.
  96. M. J. Tsai, W. Lee, and N. Ann, “Machine Vision Based Path Planning for a Golf Club Head Welding System,” Journal of robotics and computer integrated manufacturing, vol. 27, no. 4, pp. 843–849, 2011.
  97. P. Kim, S. Rhee, and C. H. Lee, “Automatic teaching of welding robot for free-formed seam using laser vision sensor,” Optics and Lasers in Engineering, vol. 31, no. 3, pp. 173–182, Mar. 1999.
  98. J. Yu and S. Na, “A study on vision sensors for seam tracking of height-varying weldment. Part 1: Mathematical model,” Mechatronics, vol. 7, no. 7, pp. 599–612, Oct. 1997.
  99. J. Yu and S. Na, “A study on vision sensors for seam tracking of height-varying weldment. Part 2: Applications,” Mechatronics, vol. 8, no. 1, pp. 21–36, Feb. 1998.
  100. J. E. Agapakis, J. M. Katz, J. M. Friedman, and G. N. Epstein, “Vision-Aided Robotic Welding: An Approach and a Flexible Implementation,” The International Journal of Robotics Research, vol. 9, no. 5, pp. 17–34, Oct. 1990.
  101. B. Bahr, J. T. Haung, and K. F. Ehmann, “Sensory guidance of seam tracking robots,” Journal of Robotic Systems, vol. 11, no. 1, pp. 67–76, 1994.
  102. M. Fridenfalk and G. Bolmsjö, “Design and Validation of a Universal 6D Seam Tracking System in Robotic Welding Based on Laser Scanning,” 2006.
  103. R. Modic, “Machine vision system for adaptive robotic welding Product datasheet,” 2008.
  104. Servo-robot Inc, “Arc Seam Tracking,” 2014. [Online]. Available: http://servorobot.com/manufacturing-solutions/arc-seam-tracking/.
  105. Meta Vision Systems Ltd, “Robotic Seam Tracking.” [Online]. Available: http://www.meta-mvs.com/seam-tracking.htm. [Accessed: 02-Apr-2014].
  106. Liburdi Group of Companies, “The Liburdi Seam Tracker,” 2014. [Online]. Available: http://www.liburdi.com/LiburdiAutomation/seam-tracker/default.aspx.
  107. V. Welding, “Welding robots.” [Online]. Available: http://www.valkwelding.com/en/welding-automation/welding-robots. [Accessed: 08-Aug-2014].
  108. F. R. America, “Adaptive Welding,” 2005.
  109. Micro-epsilon, “Laser sensors,IR temperature sensors,Displacement and position sensors,Color sensors,” 2010. [Online]. Available: http://www.micro-epsilon.com/index.html.
  110. V. G. Nick, C. Steven, B. Philip, and K. Jean-, “A Performance Evaluation Test for Laser Line Scanners on CMMs,” Optics and Lasers in Engineering, vol. 47, no. 3–4, pp. 336–342, 2009.
  111. W. Boehler, M. B. Vicent, A. Marbs, and S. Technology, “Investigating laser scanner accuracy,” in The 6th CIPA Symposium at Antalya, 2003, no. October.
  112. G. E. S. Gerald F. Marshall, Handbook of Optical and Laser Scanning. 2004.
  113. D. D. Lichti and B. R. Harvey, “The Effects of Reflecting Surface Material Properties on Time of Flight Laser Scanner Measurements,” in Symposium on Geospatial Theory, Processing and Applications, 2002.
  114. C. T. Yang S., Cho M., Lee H., “Weld line detection and process control for welding automation,” Measurement science and technology, vol. 18, pp. 819–826, 2007.
  115. I. Kim, J. Son, S. Lee, and P. K. D. V. Yarlagadda, “Optimal design of neural networks for control in robotic arc welding,” Robotics and computer-integrated manufacturing, vol. 20, pp. 57–63, 2004.
  116. Computer weld technologies Inc, “ADM IV Arc Data Monitor,” 2014. [Online]. Available: http://www.cweldtech.com/product-ADM4.html.
  117. Weldindustry AS, “WeldEye Quality System,” 2014. [Online]. Available: http://www.weldindustry.com/index.php/products-topmenu-33/weldeye-quality-system.
  118. ETher NDE, “WeldCheck,” 2014. [Online]. Available: http://www.ethernde.com/instruments/flaw-detectors/weldcheck.
  119. X. M. Zeng, J. Lucas, and M. T. C. Fang, “Use of neural networks for parameter prediction and quality inspection in TIG welding,” Transactions of the Institute of Measurement and Control, vol. 15, no. 2, pp. 87–95, Jan. 1993.
  120. M. Miller, B. Mi, A. Kita, and I. C. Ume, “Development of automated real-time data acquisition system for robotic weld quality monitoring,” Mechatronics, vol. 12, no. 9–10, pp. 1259–1269, Nov. 2002.
  121. E. Karadeniz, U. Ozsarac, and C. Yildiz, “The effect of process parameters on penetration in gas metal arc welding process,” Material and design, vol. 28, pp. 649–656, 2007.
  122. G. Singh, K. Singh, and J. Singh, “Mathematical Modeling of the Effect of Welding Parameters on Penetration In Submerged Arc,” International Journal of Engineering Studies, vol. 2, no. 3, pp. 313–320, 2010.
  123. H. J. Park, D. C. Kim, M. J. Kang, and S. Rhee, “Optimisation of the wire feed rate during pulse MIG welding of Al sheets,” Journal of of Achievements in Materials and Manufacturing Engineering, vol. 27, no. 1, pp. 83–86, 2008.
  124. I. S. Kim, K. J. Son, Y. S. Yang, and P. K. D. V. Yarlagadda, “Sensitivity analysis for process parameters in GMA welding processes using a factorial design method,” International journal of machine tools & manufacture, vol. 43, pp. 763–769, 2003.
  125. M. S. Ali and P. V. Kumar, “Affect of Different Input Parameters on Weldment Characteristics in Tungsten Inert Gas ( TIG ) Welding,” American Journal of Scientific Research, vol. 12, no. 12, pp. 153–165, 2010.
  126. P. Kumari, K. Archna, and R. S. Parmar, “Effect of Welding Parameters on Weld Bead Geometry in MIG Welding of Low Carbon Steel,” International Journal of Applied Engineering Research, vol. 6, no. 2, pp. 249–258, 2011.
  127. P. K. Palani and N. Murugan, “Development of mathematical models for prediction of weld bead geometry in cladding by flux cored arc welding,” International journal of advanced manufacturing technology, vol. 30, pp. 669–676, 2006.
  128. D. W. Becker and C. M. Adams, “Investigation of pulsed GTA welding parameters,” in 59th annual meeting of AWS, 1978, pp. 134–138.
  129. Y. . Tarng, H. . Tsai, and S. . Yeh, “Modeling, optimization and classification of weld quality in tungsten inert gas welding,” International Journal of Machine Tools and Manufacture, vol. 39, no. 9, pp. 1427–1438, Sep. 1999.
  130. S. C. Juang and Y. S. Tarng, “Process parameter selection for optimizing the weld pool geometry in the tungsten inert gas welding of stainless steel,” Journal of Materials Processing Technology, vol. 122, pp. 33–37, 2002.
  131. E. Batanouny, “Design and Manufacture of a Control Unit for Monitoring Welding Parameters in Resistance Spot Welding,” International Journal of Engineering & Technology, vol. 10, no. 1, pp. 36–42.
  132. K. Anderson, G. E. Cook, G. Karsai, and K. Ramaswamy, “Artificial neural networks applied to arc welding process modelling and control,” in IEEE transactions on industry automation, 1990, pp. 824–830.
  133. A. Jaleel, “Grey-based Taguchi Method for optimization of Bead Geometry in Laser bead-on-plate Welding,” Advances in Production Engineering & Management, vol. 5, no. 4, pp. 225–234, 2010.
  134. T. Greyjevo, Optimizacija Geometrije, U. Esme, M. Bayramoglu, Y. Kazancoglu, and S. Ozgun, “Optimization of Weld Bead Geometry in TIG Welding Process Unisng Grey-relation Analysis and Taguchi method,” Materials and technology, vol. 43, no. 3, pp. 143–149, 2009.
  135. K. Y. Benyounis and a. G. Olabi, “Optimization of different welding processes using statistical and numerical approaches – A reference guide,” Advances in Engineering Software, vol. 39, no. 6, pp. 483–496, Jun. 2008.
  136. I. S. Kim, A. Basu, and E. Siores, “Mathematical models for control of weld bead penetration in the GMAW process,” International journal of advanced manufacturing technology, vol. 12, pp. 393–401, 1996.
  137. I. S. Kim, K. J. Son, and P. K. D. V. Yarlagadda, “A study on the quality improvement of robotic GMA welding process,” Robotics and computer-integrated manufacturing, vol. 19, pp. 567–572, 2003.
  138. S. Pal, S. K. Pal, and A. K. Samantaray, “Artificial neural network modelling of weld joint strength of a pulsed metal inert gas welding process using arc signals,” Journal of Materials Processing Technology, vol. 202, pp. 464–474, 2008.
  139. Q. Wang, D. Xu, and I. Science, “Robust features extraction for lap welding seam tracking system,” in IEEE Youth Conference on Information, Computing and Telecommunication, 2009, pp. 319–322.
  140. H. Engström and A. Kaplan, “Adaptive process control in laser robotic welding,” 2008.
  141. H. B. Chen, T. Lin, S. B. Chen, and J. F. Wang, “Adaptive Control on Wire Feeding in Robot Arc Welding System,” in IEEE Conference on Robotics, Automation and Mechatronics, 2008, pp. 119–122.
  142. Fronius, “Magic Wave 4000.” [Online]. Available: http://www.fronius.com/cps/rde/xchg/SID-C7973E01-C70ABDB8/fronius_international/hs.xsl/79_9115_ENG_HTML.htm#.VGTzyvnGrLk.
  143. N. Instruments, “Parts of a PXI System,” 2014. [Online]. Available: http://www.ni.com/white-paper/4811/en/.
  144. HKS-ProzeBtechnik GmbH, “HKS sensors for welding data monitoring: technical data/operating instructions/ calibration certificates,” Germany, 2008.
  145. C. Andrew, S. and Daniel, “Cameras for Monitoring Welding,” Welding Design and Fabrication, 2011. [Online]. Available: http://weldingdesign.com/equipment-automation/main/CamerasForMonitoring/#.UDuXEsdHzBw.mendeley.
  146. IDS, “IDS uEye XS Series – Ultra compact USB Camera with Integrated Lens and RichFeature Set,” 2011. [Online]. Available: http://www.stemmer-imaging.co.uk/en/products/series/ids-ueye-xs/.
  147. X. Wen-Fang, L. Zheng, P. Claude, and T. Xiao-Wei, “Switching Control of Image Based Visual Servoing in an Eye-in-Hand System Using Laser Pointer,” in Motion Control, F. Casolo, Ed. 2010.
  148. P. Manorathna, P. Ogun, S. Marimuthu, L. Justham, and M. Jackson, “Performance evaluation of a 3D laser scanner for industrial applications,” in IEEE international conference on information and automation for sustainability, 2014.
  149. Micro-epsilon, “scanCONTROL 2D/3D laser scanner (laser profile sensors).”
  150. KUKA Robot Group, “KUKA KR 16 L6-2,” 2014. [Online]. Available: http://www.kuka-robotics.com/en/products/industrial_robots/low/kr16_l6_2/.
  151. KUKA system technology, “KUKA.Ethernet KRL XML 1.2,” 2012.
  152. F. Duan, Y. Zhang, N. Pongthanya, K. Watanabe, H. Yokoi, and T. Arai, “Analyzing human skill through control trajectories and motion capture data,” in IEEE International Conference on Automation Science and Engineering, 2008, pp. 454–459.
  153. The British Psychological Society, “Code of ethics and conduct,” 2009.
  154. P. C. Miller, “In search of smarter welding systems,” Tooling & Production, 1994.
  155. E. Nadernejad and S. Sharifzadeh, “Edge Detection Techniques : Evaluations and Comparisons,” Applied Mathematical Sciences, vol. 2, no. 31, pp. 1507–1520, 2008.
  156. L. W. S. . Chen, D. B. Zhao, and Y. J. Lou, “Computer Vision Sensing and Intelligent Control of Welding Pool Dynamics,” Robotic welding and intelligent automation, vol. 299, pp. 25–55, 2004.
  157. L. P. Connor, Welding handbook volume 1: Welding technology, 8th ed. American welding society, 1991.

전문가 Q&A: 주요 질문과 답변

Q1: 왜 실시간 단일 패스(single-pass) 방식이 아닌, ‘스캔 후 용접’의 2단계(two-pass) 접근법을 선택했습니까?

A1: 항공우주 산업에서는 고가의 재료를 사용하므로 용접 실패로 인한 부품 폐기는 막대한 비용 손실을 초래합니다. 본 연구에서 채택한 2단계 접근법은 용접을 시작하기 전에 레이저 스캐너로 전체 용접 조인트의 형상을 정밀하게 분석할 수 있게 해줍니다. 이를 통해 시스템은 갭 변화, 부정합 등 모든 변수를 사전에 파악하고 지능적인 판단을 내릴 수 있어 용접 실패 위험을 최소화하고 최고 품질의 용접을 보장할 수 있습니다. (Chapter 7 참조)

Q2: 연구 결과, 배경 전류와 펄스 주파수가 용접 비드 형상에 미치는 영향이 미미하다고 나왔습니다. 그렇다면 이 파라미터들은 중요하지 않은 것인가요?

A2: 비드 형상에 대한 영향은 상대적으로 적었지만, 용접 강도에 대한 분산 분석(ANOVA) 결과(Figure 8-19)에서는 이 두 파라미터가 주 용접 전류나 듀티 사이클보다는 낮지만 무시할 수 없는 영향을 미치는 것으로 나타났습니다. 이는 용접 품질이 단순히 기하학적 형상뿐만 아니라 기계적 특성까지 고려해야 하는 복합적인 문제임을 보여주며, 최적화 목표에 따라 각 파라미터의 중요도가 달라질 수 있음을 시사합니다.

Q3: 특히 반짝이는 표면에서 레이저 스캐너의 노이즈나 데이터 손실 문제는 어떻게 처리했습니까?

A3: 두 가지 방식으로 접근했습니다. 첫째, 사전 실험(Chapter 5)을 통해 반짝이는 스테인리스강 표면에서 최적의 데이터 품질을 얻을 수 있는 레이저 스캐너 설정값(예: 노출 시간 1-2ms, 스탠드오프 거리 67-68mm, 임계 입사각 회피)을 찾아냈습니다. 둘째, 그럼에도 불구하고 발생하는 노이즈 데이터는 3D 포인트 클라우드를 처리하는 후처리 필터링 알고리즘(Chapter 6)을 통해 제거했습니다. 이 알고리즘은 연속된 포인트 간의 예상 변위 임계값을 초과하는 이상치(outlier)를 효과적으로 걸러냅니다.

Q4: 숙련된 용접사의 작업을 분석하여 얻은 가장 핵심적인 교훈은 무엇이었습니까?

A4: 가장 큰 교훈은 숙련된 용접사가 복잡한 TIG 용접 공정을 ‘단순화’하여 제어한다는 점입니다. 그들은 모든 파라미터를 동시에 미세 조정하는 대신, 용접 품질에 가장 큰 영향을 미치는 핵심 파라미터(주로 용접 전류와 와이어 공급 속도)를 우선적으로 제어하고 나머지 변수(용접 속도 등)는 비교적 일정하게 유지했습니다. 이 원칙은 로봇의 적응형 제어 알고리즘 개발에 직접적으로 적용되어, 제어 변수의 수를 줄이고 알고리즘의 안정성과 효율성을 높이는 데 결정적인 역할을 했습니다. (Chapter 4 참조)

Q5: 가변 갭에 대응하기 위해 용접 파라미터를 조절하는 적응형 모델(수식 9.12-9.14)은 어떻게 도출되었습니까?

A5: 이 모델은 실험 데이터 기반의 역전파(back-propagation) 방식으로 도출되었습니다. 먼저, 다양한 크기의 알려진 갭(0.25mm ~ 2.5mm)을 설정하고 각 갭에서 최상의 용접 결과를 내는 용접 전류, 듀티 사이클, 와이어 공급 속도의 조합을 실험적으로 찾았습니다. 이 데이터들을 그래프로 나타내자 갭 크기와 각 파라미터 값 사이에 뚜렷한 선형 관계가 나타났습니다(Figure 9-7). 이 선형 추세선을 분석하여 갭 크기를 입력하면 최적의 파라미터 값을 예측하는 간단하면서도 강력한 선형 방정식을 유도할 수 있었습니다.


결론: 더 높은 품질과 생산성을 향한 길

본 연구는 숙련된 용접사의 노하우와 첨단 센서 기술을 결합하여 고부가가치 산업의 오랜 난제였던 로봇 TIG 용접 자동화의 새로운 가능성을 열었습니다. 용접 조인트의 3D 형상을 실시간으로 분석하고, 경험적 모델을 통해 최적의 파라미터를 지능적으로 도출하는 이 적응형 시스템은 기존의 경직된 로봇 용접 방식의 한계를 극복하는 청사진을 제시합니다. 이는 단순히 사람의 작업을 모방하는 것을 넘어, 데이터에 기반한 일관성과 정밀도를 통해 수동 용접보다 더 안정적인 품질을 달성할 수 있는 잠재력을 보여주었습니다.

STI C&D는 최신 산업 연구 결과를 적용하여 고객이 더 높은 생산성과 품질을 달성할 수 있도록 돕는 데 전념하고 있습니다. 이 논문에서 논의된 과제가 귀사의 운영 목표와 일치한다면, 저희 엔지니어링 팀에 연락하여 이러한 원칙을 귀사의 부품에 어떻게 구현할 수 있는지 논의해 보시기 바랍니다.

(주)에스티아이씨앤디에서는 고객이 수치해석을 직접 수행하고 싶지만 경험이 없거나, 시간이 없어서 용역을 통해 수치해석 결과를 얻고자 하는 경우 전문 엔지니어를 통해 CFD consulting services를 제공합니다. 귀하께서 당면하고 있는 연구프로젝트를 최소의 비용으로, 최적의 해결방안을 찾을 수 있도록 지원합니다.

  • 연락처 : 02-2026-0450
  • 이메일 : flow3d@stikorea.co.kr

저작권 정보

  • 이 콘텐츠는 Prasad Manorathna의 논문 “Intelligent 3D Seam Tracking and Adaptable Weld Process Control for Robotic TIG Welding”을 기반으로 한 요약 및 분석 자료입니다.
  • 출처: Loughborough University Institutional Repository (https://repository.lboro.ac.uk/articles/thesis/Intelligent_3D_seam_tracking_and_adaptable_weld_process_control_for_robotic_TIG_welding/9585041)

이 자료는 정보 제공 목적으로만 사용됩니다. 무단 상업적 사용을 금지합니다. Copyright © 2025 STI C&D. All rights reserved.