• español
    • English
  • ¿Qué es el Repositorio Institucional Séneca?
  • Cómo publicar
  • Lineamientos
  • Contáctenos
Ver ítem 
  •   Repositorio Institucional Séneca
  • Facultad de Ingeniería
  • Departamento de Ingeniería Eléctrica y Electrónica
  • Maestría en Ingeniería Electrónica y de Computadores
  • Tesis/Trabajos de Grado
  • Ver ítem
    • español
    • English
  •   Repositorio Institucional Séneca
  • Facultad de Ingeniería
  • Departamento de Ingeniería Eléctrica y Electrónica
  • Maestría en Ingeniería Electrónica y de Computadores
  • Tesis/Trabajos de Grado
  • Ver ítem
JavaScript is disabled for your browser. Some features of this site may not work without it.

Navegar

Todo SénecaComunidades y ColeccionesAutoresTítulosTemáticasTipos de contenidosPerfil de autor
Esta colecciónFacultades y ProgramasAutoresTítulosTemáticasTipos de contenidos

Mi cuenta

AccederRegistro

Estadísticas

Ver Estadísticas de uso

Deep reinforcement learning for global maximum power point tracking: design and experiments in real PV systems

RISMendeley
http://hdl.handle.net/1992/63585

  • Tesis/Trabajos de Grado [256]

Gaviria Fierro, Jorge Felipe
Bressan, MichaelAutoridad Uniandes; Giraldo Trujillo, Luis FelipeAutoridad Uniandes
2022-12-15
To ensure the efficient operation of photovoltaic systems, the maximum power point (MPP) must be found under different environmental conditions using a maximum power point tracking (MPPT) algorithm. Conventional methods such as the perturb and observe (P&O) algorithm tend get stuck at local MPP (LMPP), not being able to find the global MPP (GMPP). In this research, we explore the integration of deep reinforcement learning (DRL) using a deep-q-network (DQN) agent to tackle the GMPP problem in real-time experiments. The main contribution of this work is a comparison between the DQN agent against the P&O algorithm for GMPPT under real uniform and partial shading (PS) conditions and a pipeline for testing DRL models. An open repository that includes PCBs schematics and layout, and also the code used to train and deploy the models will be provided in a future publication. We show that the DQN agent was able to outperform the P&O algorithm in simulations in every scenario, while in real test benches, it did not happen. However, when the P&O algorithm got stuck in a LMPP in PS scenarios, the DQN algorithm was able to extract up to 63.5% more power than the P&O algorithm.
Trabajo de grado - Maestría
Photovoltaic systems
Maximum power point tracking
Neural networks
Reinforcement learning
Ver Estadísticas de uso
Mostrar el registro completo del ítem

Portada

Thumbnail

Nombre: Reinforcement_Learning_MPPT_Un ...

[PDF] PDF Open Access[PDF] VER Open Access

Cita

Cómo citar

Cómo citar

Código QR


Carrera 1 # 18A-12

Bogotá - Colombia

Postal Code: 111711

+57 601 3394949 Ext.3322

sisbibli@uniandes.edu.co

i-RUS

i-RUS


Recursos Electrónicos

Recursos

Electrónicos


Biblioguías

Biblioguías


Icono Eventos

Repositorio de

datos de investigación



Redes sociales

  • Facebook
  • twitter
  • youtube
  • instagram
  • whatsapp

Universidad de los Andes | Vigilada Mineducación

Reconocimiento como Universidad: Decreto 1297 del 30 de mayo de 1964.

Reconocimiento personería jurídica: Resolución 28 del 23 de febrero de 1949 Minjusticia.

© - Derechos Reservados Universidad de los Andes