En el contexto de las redes neuronales artificiales, el rectificador es una función de activación definida como:
Donde 'x' es la entrada de la neurona. También es conocida como función rampa y es análoga a la rectificación de media onda en electrónica. La función de activación activa los pesos de una neurona según el resultado de dicha neurona en el mundo de la inteligencia artificial.
El primer uso documentado de esta función de activación en una red dinámica fue descrito por Hahnloser et al. en un artículo del año 2000[1] en donde se presenta su bioinspiración y el fundamento matemático.[2] Se utiliza en redes neuronales convolucionales[3] para obtener resultados de menor error que los generados con función logística (la cual es inspirada por la teoría de la probabilidad) y existe evidencia que es más práctica[4] que su contraparte, la función hiperbólica. El rectificador es una función de activación común en redes neuronales profundas.[5]
Las unidades que emplean el rectificador son conocidas como unidad lineal rectificada (ReLU, por sus siglas en inglés).
Una aproximación "suave" del rectificador es la función analítica:
conocida como función softplus.[6] La derivada de dicha función es , p.e. la función logística.
La ReLU se emplean en visión artificial[3] y reconocimiento de voz[7][8] usando redes neuronales profundas.