Logo của kho lưu trữ
  • Vietnamese
  • English
  • Đăng nhập
    Bạn là người dùng mới? Vui lòng nhấp vào đây để đăng kí. Có phải bạn quên mật khẩu?
Logo của kho lưu trữ
  • Đơn vị & Bộ sưu tập
  • Duyệt tìm
  • Vietnamese
  • English
  • Đăng nhập
    Bạn là người dùng mới? Vui lòng nhấp vào đây để đăng kí. Có phải bạn quên mật khẩu?
  1. Trang chủ
  2. Duyệt theo tác giả

Duyệt theo Tác giả "Yonggwan Won"

Đang hiển thị 1 - 1 của tổng số 1 kết quả
Số kết quả/trang
Tùy chọn sắp xếp
  • Không có ảnh thu nhỏ nào
    Tài liệu
    Regularized online sequential learning algorithm for single-hidden layer feedforward neural networks
    (2011-10-15) Trung Huynh, Hieu; Yonggwan Won; NTT Institute of Hi-Technology, Nguyen Tat Thanh University, HoChiMinh City, Viet Nam; Korea Bio-IT Foundry Center@Gwangju, Chonnam National University, Gwangju 500-757, Republic of Korea
    Online learning algorithms have been preferred in many applications due to their ability to learn by the sequentially arriving data. One of the effective algorithms recently proposed for training single hidden- layer feedforward neural networks (SLFNs) is online sequential extreme learning machine (OS-ELM), which can learn data one-by-one or chunk-by-chunk at fixed or varying sizes. It is based on the ideas of extreme learning machine (ELM), in which the input weights and hidden layer biases are randomly chosen and then the output weights are determined by the pseudo-inverse operation. The learning speed of this algorithm is extremely high. However, it is not good to yield generalization models for noisy data and is difficult to initialize parameters in order to avoid singular and ill-posed problems. In this paper, we propose an improvement of OS-ELM based on the bi-objective optimization approach. It tries to minimize the empirical error and obtain small norm of network weight vector. Singular and ill-posed problems can be overcome by using the Tikhonov regularization. This approach is also able to learn data one-by-one or chunk-by-chunk. Experimental results show the better generalization performance of the proposed approach on benchmark datasets.

Phần mềm thư viện số bản quyền © 2002-2025 LYRASIS

  • Cài đặt Cookie
  • Chính sách riêng tư
  • Thỏa thuận bạn đọc
  • Gửi phản hồi