WE ARE CEE

CENTER ELECTRICAL ENGINEERING

Mobile, Embedded System, PCB Layout, Robotics and UAV

Nghiên cứu & Chuyển giao CN

Dẫn đường và tránh vật cản cho robot di động dựa trên ảnh laser 3D và siêu âm

1. Phần mở đầu

Dẫn đường là hoạt động điều khiển robot đi tới đích một cách tin cậy và hiệu quả, dựa trên các dữ liệu nhận biết về môi trường và các thông tin đọc được từ các cảm biến theo thời gian thực. Cần có 2 năng lực cơ bản cho việc thiết kế dẫn đường một robot di động tự trị. Đó là việc khi có được một bản đồ môi trường cùng với vị trí hiện tại của robot và đích, phải vạch ra được một quỹ đạo để đi đến đích. Đây là bài toán mang tính toàn cục vì robot phải quyết định chuyển động thế nào trong suốt thời gian dài tới đích. Năng lực thứ hai cũng quan trọng nhưng mang tính cục bộ. Đó là, dựa trên các số liệu đọc được từ các cảm biến theo thời gian thực, robot phải điều chỉnh được quỹ đạo trên trong một vùng cục bộ để tránh va chạm với các vật cản đột xuất mà vẫn giữ được hướng đi toàn cục tới đích. Như vậy, quá trình dẫn đường cho robot đi động tự trị có thể chia làm các bước: lập bản đồ môi trường, định vị robot, thiết kế quỹ đạo và điều khiển chuyển động, tránh vật cản. Với môi trường có cấu trúc, các thông tin nhận biết trước đó cho phép tạo ra bản đồ môi trường. Nhưng với môi trường phi cấu trúc (không biết trước) robot cần có khả năng tự quan sát môi trường để có thể xây dựng được một bản đồ trong bộ nhớ của nó để có thể thiết kế một quỹ đạo dẫn nó tới đích. Với yêu cầu giới hạn của bài toán di chuyển trong một không gian trên mặt phẳng sàn nhà, nhiệm vụ này có thể được thực hiện khá nhanh chóng trên một cảm biến đo xa laser 2D hiện đại để có được một đám mây các điểm ảnh môi trường 3D quanh robot. Vấn đề là cần trích xuất được các thông tin của hình ảnh 3D để hình thành một bản đồ 2D trên mặt sàn nhà với đầy đủ các vị trí bị chiếm chỗ bởi các vật cản có các chiều cao nhỏ hơn hoặc bằng chiều cao của robot. Có một số tác giả như trong [1][2] đã đề ra các phương pháp xác lập bản đồ trong đó chủ yếu dựa trực tiếp vào các phương pháp phân vùng 3D phức tạp và có giá tính toán rất cao. Trong bài báo này, chúng tôi đề xuất một giải thuật cho phép xây dựng bản đồ 2D này một cách đơn giản dựa trên đặc điểm của thiết bị đo xa laser và yêu cầu tránh vật cản của một robot di động cụ thể. Giải thuật được gọi là IPaBD, có nghĩa là “ép ảnh 3D thành 2D và phát hiện vật cản” (3D-to-2D image pressure and barrier detection). Nội dung này sẽ được trình bày trong phần 2 của báo cáo. Dựa trên bản đồ 2D được xác lập, việc thiết kế quỹ đạo toàn cục đã được thử nghiệm bằng 2 phương pháp: phương pháp tìm đường theo giải thuật A* với không gian được rời rạc hóa thành các “ô chiếm giữ” [3] và phương pháp tìm đường bằng đồ thị Voronoi [4] với điều khiển đường đi liên tục bằng hàm Lyapunov [5][10]. Một số cơ sở lý thuyết liên quan đến các thử nghiệm này sẽ được trình bày trong phần 3. Đối với nhiệm vụ tránh vật cản gần trong vùng cục bộ, chúng tôi đã áp dụng phương pháp trường thế năng [6] với một hệ các cảm biến đo xa siêu âm, phát triển chương trình điều khiển cho phép tránh được các vật cản trong vùng từ 0,3m đến 4m. Các kết quả tránh vật cản trong quá trình dẫn đường cũng được trình bày trong phần 3 của báo cáo. Phần 4 trình bày các kết quả đo đạc thực nghiệm cho thấy hiệu quả của việc tổng hợp dữ liệu từ các cảm biến cho dẫn đường robot di động tự trị, nó cho phép mở ra những khả năng ứng dụng với các xe tự hành thông minh trong thực tế.

2. Xây dựng bản đồ 2D từ đám mây các điểm ảnh 3D của môi trường

2.1. Thu số liệu từ các cảm biến laser và siêu âm

Hình 1 là ảnh cảm biến đo xa laser LMS-211 và các cảm biến siêu âm được gắn lên một robot di động tự trị được thiết kế. Việc đo khoảng cách đến một điểm trên vật cản dựa trên nguyên tắc xác định thời gian đi-về của một xung laser phản xạ từ vật cản với các góc quét lệch ngang (yaw) khác nhau. Để nhận được hình ảnh 3D của môi trường, máy đo xa laser được gắn lên một đế có thể quay ngẩng lên-xuống quanh một trục nằm ngang như mô tả chi tiết tại. Trong nghiên cứu này, chúng tôi đã điều chỉnh các thông số của hệ đo laser sao cho với mỗi lần quay ngẩng lên (pitching up), cảm biến thu nhận được 94 khung ảnh 2D của môi trường, ứng với từng góc ngẩng trong dải từ -5° đến +20°, với bước tăng góc ngẩng là (5°+20°)/94 = 0,266°. Mỗi khung ảnh 2D nhận được ứng với 1 góc ngẩng aj là do thu thập số liệu khi tia laser được quét ngang với các góc quét bk trong dải quét 100° (từ 40° đến 140°), độ phân giải 1°. Như vậy, một ảnh 3D thu được sẽ là một đám mây với 101´94 = 9.494 điểm ảnh.

Hình 1:  Robot đa cảm biến.

Ảnh này có được tính tuyến tính và độ chính xác theo chiều cao là do tốc độ quét ngẩng là không đổi. Sự ổn định tốc độ cỡ ±5% này được duy trì là nhờ một bộ điều khiển nhúng lắp trên vi xử lý với giải thuật điều khiển PID. Do cảm biến được đặt ở độ cao so với mặt sàn 0,4m nên ở góc ngẩng cực tiểu -5°, cảm biến có thể phát hiện ra các vật có chiều cao từ 0m trở lên ở khoảng cách tối thiểu 4,58 m. Các vật cản cách robot một khoảng nhỏ hơn sẽ được phát hiện nhờ một hệ thống gồm 8 cảm biến đo xa siêu âm đã được lắp đặt điều khiển bằng vi xử lý. Tổng hợp số liệu từ 2 hệ thống cảm biến sẽ cho robot một hình ảnh toàn cục bản đồ môi trường phía trước.

2.2. Xây dựng bản đồ toàn cục từ số liệu ảnh laser 3D phía trước robot 

Tại một góc quét ngẩng aj (với j = 1 ¸94) robot sẽ thu được 1 khung ảnh 2D gồm các điểm ảnh được xác định bởi các góc quét ngang bk   (k = 1¸ 101) khoảng cách đến vật Rk tương ứng. Từ đó có thể xác định được tọa độ Descarter của mỗi điểm ảnh tạo nên hình ảnh 3D của môi trường  [7]:

x j,k=Rkcosaj cosbk 

yj,k   =Rk  cosajsinbk

z j,k = Rk sin a j

Do robot di chuyển trên mặt phẳng sàn nhà, nên hình chiếu điểm ảnh các vật lên mặt phẳng (x,y) song song với sàn nhà sẽ được dùng để xây dựng bản đồ 2D. Thực hiện phép hợp (U) tất cả các điểm ảnh có tọa độ (x,y), ta được kết quả “ép” các khung trong ảnh 3D của môi trường theo phương z thành một bản đồ 2D duy nhất trên mặt phẳng x-y như hình 2

 

 

Hình 2: Ép các khung trong ảnh 3D thành bảnđồ

 

Ảnh bản đồ 2D thu được như trên là một ma trận các điểm ảnh, mỗi điểm được biểu diễn bằng một cặp thông số (b, R), trong đó bk là góc quét của tia laser thứ k Rk là khoảng cách đo được đến điểm ảnh. Sự phụ thuộc giữa hai thông số này là không đơn trị như trong mỗi khung quét laser 2D thông thường. Tức là, ứng với một góc quét ngang b có thể có một hoặc nhiều điểm có R khác nhau (ứng với các độ cao z khác nhau). Trong các xử lý dẫn đường thông thường, các bước cần tiến hành là phân vùng ảnh để tách ra các biên ảnh 3D cần thiết, từ đó xác định được khoảng không gian tự do cho robot di động tới đích. Tuy nhiên, nhận thấy bản đồ 2D thu nhận được qua quá trình ép ảnh kể trên thực ra chỉ là hình ảnh bề mặt các vật cản hướng về phía robot. Do đó chỉ cần xác định phần biên các vùng ảnh trước “tầm nhìn” (thị trường) của robot bằng việc lựa chọn các điểm ảnh (hình tròn) có khoảng cách đến robot gần nhất trong số các điểm ảnh cùng chung một góc quét laser như hình 3 chỉra.

 

Hình 3:  Phát hiện các đinh có khoảngcáchcực tiểu (các điểm tròn trên đường liền nét).

 

Các điểm ảnh còn lại trên cùng góc quét không được chọn (các điểm hình vuông) là ở các cao độ z khác nhưng có khoảng cách xa hơn khoảng cách các điểm được chọn (hình tròn).

 

Sau bước xử lý này, sự phụ thuộc (b, R) trở nên đơn trị và có thể dễ dàng áp dụng các thuật toán phân đoạn phổ biến hiện nay. Chúng tôi đã sử dụng phương pháp PDBS với giải thuật đơn giản dựa trên khoảng cách Euclidean [8] cho quá trình phân đoạn này.Với mục đích cụ thể của bài toán, cần phát hiện và tránh các vật cản đứng trên sàn nhà phẳng, có chiều cao z thấp hơn một giá trị ngưỡng (ở đây là chiều cao của robot, bằng 1,2 m); bản đồ 2D trở nên đơn giản hơn nữa và lộ raphần không gian tự do cho robot có chiều cao xác định khi được loại bỏ tất cả các điểm ảnh có giá trị độ cao lớn hơn độ cao robot (zk > 1,2 m) các điểm ảnh có zk = 0m đại diện cho sànnhà. Như vậy toàn bộ các bước xây dựng bản đồ 2D được tiến hành lần lượt theo các bước của giải thuật được chúng tôi gọi là IPaBD (3D-to-2d image pressure and barrier detection) như sau:

Giải thuật 3D-to-2D IPaBD

  •   Bước 1: Xuất phát từ tập hợp số liệu đám mây điểm ảnh 3D, thực hiện phép hợp tất cả các điểm ảnh lên mặt phẳng tọa độ (x,y).
  •   Bước 2: Với mỗi góc quét ngang bk, tìm chọn giá trị Rk = Rmin.
  •   Bước 3: Loại bỏ các điểm có z> zngưỡng và z = 0.
  •   Bước 4: Thực hiện giải thuật phân đoạn ảnh (nếu cần). 

3. Dẫn đường và tránh vật cản cho robot

3.1. Dẫn đường robot

Trong thực nghiệm thứ nhất, không gian mặt sàn được rời rạc hóa thành một ma trận M(j,k) ô chữ nhật, mỗi ô có kích thước (a ´ a) cm, gọi là ô chiếm giữ. Giá trị a được chọn bằng 1/3 đường kính thiết diện ngang của robot. Như vậy tâm một ô chiếm giữ M(j,k) sẽ có tọa độ là (j.a+a/2, k.a+a/2) chiếm một vùng tọa độ x từ j.a đến j(a+1) vùng tọa độ y từ k.a đến k(a+1). Nếu điểm ảnh trên bản đồ có tọa độ nằm trong vùng tọa độ ô nào thì ô đó được gọi là bị chiếm giữ và được gán giá trị logic “1”, các ô còn lại thuộc về không gian tự do, có giá trị “0”. Từ số liệu các vùng có các ô bị chiếm giữ, cần dùng giải thuật “dãn ảnh” (dilation) để dãn ra một ô nữa,  tạo vùng không gian ngăn robot va chạm với mép vùng bị chiếm giữ. Từ các dữ liệu bản đồ các ô bị chiếm giữ bởi điểm ảnh các vật cản, cùng các giá trị của 2 ô xuất phát S(xS, yS) ô đích D(xD,yD) có thể áp dụng giải thuật A* để vạch ra đường đi ngắn nhất qua các ô tự do để đến ô đích. 

Trong thực nghiệm thứ hai, từ tọa độ các điểm đặc trưng được trích chọn từ các đoạn ảnh, đồ thị Voronoir được xây dựng cho phép tìm ra một đường đi tối ưu qua các điểm nút, là điểm giữa của các cửa tự do có kích thước rộng hơn đường  kính robot. Xuất phát từ tư thế (tọa độ và hướng) của robot tại điểm xuất phát và tư thế của robot cần có tại các điểm nút cũng như điểm đích; các hàm Lyapunov được áp dụng để dẫn đường robot đi qua từng cặp điểm nút kề cận nhau cho tới  điểm đích. Phương pháp sử dụng điều khiển bằng hàm Lyapunov cho một quỹ đạo liên tục và tối ưu.

Ta biết rằng để dẫn đường cho robot đi từ tư thế này đến tư thế kia, ngoài những điều kiện ràng buộc về điều kiện nonholonomic của hệ thống bánh xe, còn phải đáp ứng điều kiện tối ưu của luật điều khiển [9].

Hình 4: Các thông số và thế của robo

Từ hình 4 luật điều khiển có thể được tóm tắtnhư sau: với 2 điểm tham chiếu trong mặt phẳngOXY làO1O2robotđiqua,thếcủarobotbao gồm vị trí và hướng của robot tại O1 là x1,y11 và O2x2,y22. Với ρ là khoảng cách từ O1 đến O2f là góc tạo bởi hai véc tơ O1O2 với O2X2; α là góc tạo bởi hai véc tơ O1O2 với O1X1.

Luật điều khiển ràng buộc vận tốc để đảm bảo quỹ đạo của robot đi từ điểm ban đầu O1 đến đích O2vicácbiếngiátrịđiukhin(ρ,α,f),đưc gọi là các biến dẫn đường, chúng sẽ hội tụ về zero khi robot tiến về đích. Mô hình động học của robot di động có thể được biểu diễn nhưsau:

Trong đó, w v lần lượt là vận tốc góc vận tốc dài của robot. Mô hình động học của robot đưmô tả qua các biến dnđưng(r,a,f)như sau:

Hàm Lyapunov được xây dựng như sau:

Trong đó kv kα là các hệ số vận tốc, theo [9-10] để đáp ứng điều kiện tối ưu của luật điều khiển  thì đạo hàm bậc nhất của Vg1 Vg2 luôn luôn giá trị âm do đó các biến dẫn đường sẽ hội tụ về không ở tại tọa độđích.

Gọi tọa độ thật của robot là được của robot là (X,Y,q). Đặt eX, eY, eqnhiễu đo của phép đo vị trí (Xˆ,Yˆ,qˆ)  của  robot.  Các  giá  tr đo  của  v trí  và hướng X, Y, q như sau:

 

Giá trị thật của các biến navigation là:

3.2 Tránh vật cản bằng phương pháp trường thế với các cảm biến siêu âm

Trên đường đi, robot phải có khả năng phát hiện và tránh được các vật cản đột xuất.Với các trường hợp này, một hệ thống cảm biến phát hiện vật thể gần (proximity sensor) được sử dụng, đó là 8 cảm biến siêu âm đo khoảng cách được bố trí trên robot như hình 6, cho phép phát hiện các vật cản phía trước và hai bên cạnh robot.  Phương pháp trường thế  đã được áp dụng để phát triển chương trình điều khiển dẫn đường, tránh vật cản. Theo cách tiếp cận này, các vật cản được coi là sinh ra các lực đẩy robot Fr và đích  tác động lực hút Ft lên robot. Tổng các lực này tạo nên lực R xác định góc hướng và vận tốc chuyển động của robottại thời điểm hiện tại.

3.3. Thực nghiệm và thảo luận

Với các thông số của thiết bị được chọn như trình bày trên, ảnh 3D thu được tại hiện trường như hình 8 với điểm xuất phát S(0,0) và đích D(- 2.200,6.800).

Hình 5: Ảnh chụp 3D môi trường toàncục.

Robot có chiều cao là 1,2 m. Tại hiện trường,có một cổng (A) với thanh dầm nằm ở vị trí thấp hơn chiều  cao  của  robot    một  cổng  (B)  cóthanh dằm nằm cao hơn robot. Ngoài ra có một thanh lang (C) với chiều cao không hạn chế nhưng ở vị trí bên cạnh. Robot cần chọn cho mình một  đường đi từ S tới đích D ngắn nhất không va chạm với các vật cản.

4. Kết luận

Bài báo đã trình bày quá trình nghiên cứu dẫn đường cho một robot di động hoạt động tự quản trị qua các giai đoạn lập bản đồ toàn cục,vạch đường đi tránh vật cản trong không gian 3 chiều. Căn cứ vào đặc điểm của các số liệu thu được từ cảm biến laser, vào yêu cầu chuyển động của robot trên mặt sàn phẳng cũng như kích thước robot, một giải thuật lập bản đồ 2D từ số liệu 3D gọi là IPaBD đã được phát triển. Bản đồ cho được dữ liệu tin cậy để từ đó phát triển được các phần mềm tìm đường đi tối ưu cho robot tới đích theo bản đồ số rời rạc bằng phương pháp tìm kiếm A* hay bằng điều khiển liên tục qua các nút đường đi trên đồ thị Voronoi với luật điều khiển Lyapunov. Phương pháp hàm Lyapunov tuy có thể đòi hỏi một quãng đường đi dài hơn phương pháp trước nhưng bù lại sẽ có được một quỹ đạo liên tục, đáp ứng được cả góc hướng của robot tại điểm đích. Phần mềm điều khiển robot tránh vật cản theo phương pháp trường thế cũng được phát triển cho được kết quả tốt trong phạm vi không gian cục  bộ. Các kết quả nghiên cứu này có thể được phát triển cho việc nghiên cứu dẫn đường các xe tự hành trong môi trường ngoài nhà.

                                                                                                                       TS. Trần Thuận Hoàng

 

BÀI VIẾT LIÊN QUAN:

Energy-Efficient Unmanned Aerial Vehicle (UAV) Surveillance Utilizing Artificial Intelligence (AI)

Recently, unmanned aerial vehicles (UAVs) have enhanced connectivity and ...

Preparation of Papers in Two Column Format for the ICSES Transactions and Conferences

Today, airports are quickly deploying self-service technologies as a ...

Robot Navigation Using FPGA Based Moving Object Tracking System

The paper describes an object tracking robot system implemented on FPGA. The ...

Trajectory Tracking Control of the Nonholonomic Mobile Robot using Torque Method and Neural Network

This paper deals with the problem of tracking control of the mobile robot with ...