Activation функцүүд

Deep Learning-д идэвхижүүлэлтийн функцүүд (activation functions) нь нейронуудын гаралтыг өөрчлөх буюу шилжүүлэх замаар нейрон сүлжээний сургалтын чадварыг сайжруулахад ашиглагддаг. Эдгээр функцүүд нь нейронуудаас гарч байгаа гаралтыг тодорхой хил хязгаар дотор хязгаарлаж өгдөг бөгөөд ингэснээр нейронуудын сургалтын процесс илүү тогтвортой болж, илүү нарийн мэдээлэл боловсруулах боломжийг олгодог.

Гол идэвхижүүлэлтийн функцүүд:

Sigmoid Function

  • 0 ба 1-ийн хооронд гаралт гаргах бөгөөд гаралтыг логистик муруй хэлбэрээр үзүүлдэг. Гол асуудал нь өндөр болон бага утгуудын хувьд градиент ихээр багасах учраас сургалтын хурд багасдаг.

Tanh (Hyperbolic Tangent) Function

  • -1 ба 1-ийн хооронд гаралт гаргана. Sigmoid функцтэй харьцуулахад төвлөрсөн утгад илүү нарийн мэдээлэл өгөх боломжтой. Гэхдээ градиентын устаж алдагдах асуудал хэвээр байна.

ReLU (Rectified Linear Unit) Function

  • Тоон утгыг хэрэв эерэг байвал өөртэй нь тэнцүү, хэрэв сөрөг байвал 0 болгож өгнө. Илүү хурдан сургалтын хурдтай, гэхдээ “dead neurons” гэх асуудал үүсч болно, учир нь хэт их сөрөг утгатай нейронууд үргэлж 0 гаралт гаргах магадлалтай.

Leaky ReLU

  • ReLU-ийн бага зэрэг өөрчлөгдсөн хувилбар. Сөрөг утгуудын хувьд бага зэрэг эерэг гаралт гаргадаг тул “dead neurons” асуудлыг багасгадаг.

Softmax Function

  • Нийлбэр нь 1 байх олон ангиллын гаралтыг гаргадаг. Голчлон олон ангилалттай асуудлуудад ашиглагддаг бөгөөд хамгийн өндөр гаралттай ангилалыг сонгодог.

Холбоотой нийтлэлүүд

Apple-ийн M1, M2, M3 чипүүд нь Neural Engine болон Metal API-г ашиглан гүн сургалтын загваруудыг үр ашигтайгаар сургах боломжийг олгодог....
  • Deep Learning
  • 3 сар 7, 2025
Мэдрэлийн сүлжээ (Neural Networks) нь хиймэл оюуны (AI) нэгэн төрлийн загвар бөгөөд өгөгдлийг шинжилж, сургалтаар дамжуулан олон төрлийн даалгаврыг гүйцэтгэх...
  • Deep Learning
  • 6 сар 22, 2024
Deep Learning, Computer Vision болон эх хэл боловсруулалт (NLP) - д ашиглагдах ТОП сангууд
  • Deep Learning
  • 6 сар 16, 2021