Nghiên Cứu Điều Khiển Học Tăng Cường Hệ Thống Con Lắc Ngược Trên Xe

##plugins.themes.academic_pro.article.main##

Võ Minh Tài
Nguyễn Văn Đông Hải

Tóm tắt

Trong nghiên cứu này, mục tiêu nhóm tác giả hướng đến là xây dựng phương pháp điều khiển học tăng cường (reinforcement learning) để điều khiển cân bằng cho đối tượng con lắc ngược trên xe. Ưu điểm chính của việc phương pháp học tăng cường là khả năng học hỏi từ sự tương tác với môi trường và cung cấp một chiến lược kiểm soát tối ưu. Phương pháp điều khiển học tăng cường cho phép chúng ta điều khiển hệ thống mà không cần biết trước về mô hình động lực học của đối tượng. Phương pháp điều khiển học tăng cường được giới thiệu trong bài báo này là thuật toán học tăng cường off policy (off policy reinforcement learning algorithm) hay Q-learning. Kết quả mô phỏng của bài báo cho thấy thành phần con lắc của hệ ổn định tại vị trí cân bằng khi ứng dụng thuật toán Q-learning.

##plugins.themes.academic_pro.article.details##

Tiểu sử của Tác giả

Võ Minh Tài

Trường Đại học Bách Khoa (HCMUT), Đại học Quốc gia Thành phố Hồ Chí Minh

Nguyễn Văn Đông Hải

Trường Đại học Sư phạm Kỹ thuật TPHCM (HCMUTE)

Cách trích dẫn
Võ Minh , T., & Nguyễn Văn Đông, H. (2022). Nghiên Cứu Điều Khiển Học Tăng Cường Hệ Thống Con Lắc Ngược Trên Xe. JSTGU, (13), 29–37. Truy vấn từ http://js.tgu.edu.vn/index.php/tckh/article/view/94

Tài liệu tham khảo

  1. Nguyễn Văn Khanh, Nguyễn Ngô Phong, Đặng Hải Đăng, "Điều khiển cân bằng hệ con lắc ngược sử dụng thuật toán PD mờ," Tạp chí Khoa học Trường Đại học Cần Thơ, no. 29, pp. 15-22, 2013.
  2. Bùi Trung Thành, Nguyễn Hữu Công, "Điều khiển con lắc ngược," Tạp chí Khoa học và Công nghệ Đại học Thái Nguyên, pp. 471- 477.
  3. Nguyen Van Dong Hai, Nguyen Minh Tam, Mircea Ivanescu, "A method of Sliding Mode Control of Cart and Pole System," Journal of Science and Technology Development, vol. 18, no. K6, pp. 167-173, 2015.
  4. Muhammad Owais; Ahsan Ul-Haque; Hasan Abdur Rahim; Shahroz Aftab; Aireen Amir Jalal, "Control Design and Implementation of an Inverted Pendulum on a Cart," in IEEE 6th International Conference on Engineering Technologies and Applied Sciences (ICETAS), Kuala Lumpur, Malaysia, 2019.
  5. Lingfei Duan; Xiong Su; Youyuan Tang; Houping Yang; Hongqiao Zhang, "Application of PID Tracking Control in Inverted Pendulum System," in IEEE 4th Advanced Information Management, Communicates, Electronic and Automation Control Conference (IMCEC), Chongqing, China, 2021.
  6. Reetam Mondal; Jayati Dey; Suman Halder; Arindam Chakraborty, "Stabilization of the cart-inverted pendulum system using PIλDμ controller," in 4th IEEE Uttar Pradesh Section International Conference on Electrical, Computer and Electronics (UPCON), Mathura, India, 2017.
  7. C. Zhou, and Q. Meng, "Reinforcement learning with fuzzy evaluative feedback for a biped robot," Robotics and Automation, vol. 4, 2000.
  8. G. E. Hinton, "Connectionist Learning Procedures," Artificial Intelligence , vol. 40, no. 1-3, pp. 185-234, 1989.
  9. Savinay Nagendra; Nikhil Podila; Rashmi Ugarakhod; Koshy George, "Comparison of Reinforcement Learning Algorithms applied to the Cart-Pole Problem," in International Conference on Advances in Computing, Communications and Informatics (ICACCI), Udupi, India, 2017.
  10. H. T. Việt, "Giải thích q-learning trong học – tăng – cường (reinforcement learning)," https://thanhvie.com/tim-hieu-ve-q-learning-trong-hoc-tang-cuong/, HCMC, 2020.
  11. N. Dũng, "Ứng dụng phương pháp Học tăng cường xây dựng mô hình xe tự hành," Tạp chí Khoa học & Công nghệ Đại Học Duy Tân, vol. 6, no. 46, pp. 16-26, 2021.
  12. A. Surriani, O. Wahyunggoro and A. I. Cahyadi, "Reinforcement Learning for Cart Pole Inverted Pendulum System," in 2021 IEEE Industrial Electronics and Applications Conference (IEACon), Penang, Malaysia, 2021.
  13. Daode Zhang, Xiaolong Wang, Xuesheng Li, Dong Wang, "Inverted Pendulum Control of Double Q-learning Reinforcement Learning Algorithm based on Neural Network", Scientific Bulletin, Series D: Mechanical Engineering, vol. 82, no. 2, pp. 15-26, 2020.