Como mejora el rendimiento de las unidades de almacenamiento el modo AHCI

Cuando llegaron los primeros discos duros al mercado, todos se conectaban como PATA (Parallel AT Attachment). A este protocolo también se le denominaba IDE (Integrated Drive Electronics). Sin embargo, en el año 2003 comenzaron a llegar al mercado los primeros discos duros SATA (Serial AT Attachement) y, con ellos, un nuevo protocolo: AHCI (Advanced Host Controller Interface). Este nuevo protocolo permitió numerosas mejoras en el rendimiento de los discos duros. Y es el más usado hoy en día.

Como decíamos, el estándar AHCI llegó al mercado con los discos duros que usaban SATA para ser conectados a la placa base. El nuevo protocolo eliminaba muchas de las limitaciones que poseía el anterior protocolo IDE. Especialmente, en lo referido al tamaño máximo de los discos duros. E implementó nuevas mejoras en las nuevas unidades, que se mantienen hasta ahora.

El AHCI implementó el NCQ (NAtive Command Queuing)

La introducción del NCQ en los discos duros SATA, supuso una mejora bastante considerable en el rendimiento de estos. Hasta su llegada, los discos duros usaban el sistema TCQ (Tagged Command Queuing). Sin embargo, este protocolo daba como resultado un consumo de procesador desproporcionadamente elevado.

Con NCQ, cada uno de los comandos que se le da al disco duro, son igual de importantes. Pero, más importante todavía, es el hecho que los discos duros dejaron de buscar los datos de manera secuencial.

Cuando un disco duro no usaba NCQ, los datos se accedían de manera secuencial, lo que suponía un desgaste del propio disco duro. Y un mayor tiempo de espera hasta que el disco completaba la búsqueda. Pero, con NCQ, los datos se acceden por proximidad, minimizando el trabajo del disco. Y mejorando sustancialmente los tiempos de búsqueda.

AHCI también implementó el Hot Swap

Otra ventaja que implementó el nuevo protocolo en los discos duros, fue el Hot Swap o desconexión en caliente. Hasta ese momento, las únicas unidades de almacenamiento que se podían desconectar en caliente eran los pendrives USB (de los que no había muchos en aquel entonces). Para desconectar un disco duro, era necesario apagar nuestro PC para poder desconectarlo físicamente. De no hacerlo así, nos arriesgábamos a que la cabeza lectora cayera sobre el plato interno del disco duro.

Con la implementación del hot swap, el usuario solo debía de decirle al sistema operativo que quería desconectar esa unidad. Era entonces este, el que se encargaba de aparcar las cabezas lectoras del mismo e interrumpir su funcionamiento de manera segura. En ese momento, el usuario ya podía desconectar al disco duro correspondiente de la bahía donde se encontraba instalado.

AHCI es soportado por todos los sistemas operativos desde Windows Vista

El soporte para el protocolo AHCI se implementó, de manera nativa, desde Windows Vista. Sin embargo, dado el bajísimo éxito que tuvo este sistema operativo entre los usuarios, la mayoría nos vimos obligados a usar drivers específicos para Windows XP. Dichos drivers había que cargarlos durante la carga del sistema, muchas veces a través de un disquete.

La llegada de Window 7 supuso para los usuarios que ya no debían de usar esta técnica, porque ese sistema operativo (que sí fue exitoso) también incluía el driver genérico de Microsoft.

Todavía en la BIOS de nuestras placas base se puede seleccionar qué protocolo deseamos que se use con nuestros discos duros. Pero, a no ser que nuestro disco duro sea muy antiguo y tenga algún tipo de incompatibilidad con AHCI, lo mejor es usar siempre este protocolo.

8 respuestas a «Como mejora el rendimiento de las unidades de almacenamiento el modo AHCI»

  1. lo mejor que pueden hacer es comprar un M.2 y para sistema y hacerle una particion de cache al disco que quieran acelerar con PrimoCache. este programa me ha cambiado la vida XD

    1. Y por qué no un M.2? Digo, optane es caché y si algo se vá de caché hay q cachear de nuevo y no es tán rápido como la velocidad nativa de lectura y escritura de un M.2 a lo mejor me equivoco, pero eso pienso…

      1. lo uso para cachear el HDD de 2TB
        el SSD que uso para sistema y programas de trabajo no… pero descargue unos controladores actuales que no se por que el SSD me trabaja mas rapido.. no se si es que la Optane esta cacheando parte de lo que cargo en el SSD
        lo bueno es que la memoria Intel Optane no se borra lo cacheado..
        no se la programacion que tenga pero si abres un programa varias veces tal ves 4 o 5 ya la 6ta vez es un peo…
        tambien que para cuando compre el SSD el M.2 me salia mucho mas caro… entre el SSD y la Memoria Cache me salio en menos que el M.2
        ja lo lindo del caso es que ahora veo que estan mas mas baratos los m.2..

        1. Si te compras por casualidad el Samsung Evo 970 Plus NO le isntales el programita de Samsung Magician pues en mi caso yo noté que cuando lo tenía me consumía más TBW por día llegando incluso a veces hasta 35GB por ahí en 1 día y en poco tiempo (menos de 1 semana) me llegaba a consumir como 300 y pico de GB, al quitarlo, PUM, el disco consume muchíiiiisimo menos q antes, casualidad….no lo creo, tal vez esto lo hace Samsung a propósito para acortarle la vida útil al M.2

          1. gracias por el dato.. el SSD que tengo es un Samsumg EVO 860 y desde que le instale el Samsung magician … esta ultima version habia visto que se ha incrementado el historial de copias.. pense que era otra cosa.. algun programa o algo… pero ahora mismo se va del parque…

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *