El avance de las tecnologías digitales plantea nuevos desafíos probatorios en el derecho penal argentino.
Este artículo desarrolla los principales criterios jurídicos y técnicos aplicables a la incorporación de evidencia digital en el proceso penal, desde la imagen forense y la función hash hasta los protocolos de trazabilidad y las normas ISO/IRAM 27037.
Se analizan casos recientes de jurisprudencia del Tribunal Superior de Justicia de Córdoba, en particular el fallo “Estrada Rodríguez”, y se examinan los aportes del Convenio de Budapest y de la Ley 27.411 como fuentes de derecho interno.
El texto se dirige a profesionales del derecho, peritos y operadores judiciales que intervienen en causas con prueba digital.
evidencia digital, cadena de custodia, imagen forense, hash, UFED Reader, TSJ Córdoba, ley 27.411, convenio de budapest, nulidad procesal, derecho de defensa, prueba ilícita, estándar internacional, ISO 27037, IRAM 36100, proceso penal
El auge de la inteligencia artificial y la sofisticación del phishing han disparado los casos de fraude vacacional. Análisis del modus operandi y pautas de seguridad desde la óptica de la defensa penal.
La temporada alta no solo incrementa el flujo turístico, sino también la actividad delictiva en el entorno digital. Planificar un descanso puede convertirse en una pesadilla legal y financiera si no se aplican los filtros de seguridad adecuados. Como especialista en derecho penal, es fundamental advertir que la figura de la estafa (Art. 172 del Código Penal) ha mutado hacia entornos virtuales complejos, donde la recuperación del activo es difícil sin una prevención eficaz.
Las estadísticas son alarmantes. Informes de ciberseguridad global indican que las estafas de viajes han aumentado entre un 500% y un 900% en el último bienio. En Argentina, los delitos informáticos vinculados a alquileres temporarios se posicionan sistemáticamente en el "top 4" de denuncias durante el verano. Los delincuentes ya no solo publican avisos falsos; utilizan Inteligencia Artificial para clonar sitios legítimos con una precisión técnica que desafía al ojo no entrenado.
La táctica predominante es el spoofing o suplantación de identidad web. Los perpetradores replican la interfaz de plataformas confiables (Booking, Airbnb, o sitios directos de hoteles) copiando código visual, logos y tipografías.
El engaño radica en la URL (Typosquatting). Se utilizan dominios visualmente similares pero legalmente distintos:
Sitio legítimo: booking.com
Sitio fraudulento: booking-ofertas-ar.com o alquileres-seguros.net
Para evitar ser víctima de un ilícito, sugiero aplicar un proceso de "Due Diligence" (diligencia debida) simplificado antes de realizar cualquier transacción:
1. Auditoría de la URL
No confíe ciegamente en el "candado" (HTTPS); los criminales también obtienen certificados SSL gratuitos. Analice la sintaxis de la dirección web. Desconfíe de guiones excesivos, palabras como "oferta", "urgente" o extensiones de dominio inusuales.
2. Validación Geográfica y de Reputación
Utilice Google Maps y Street View para constatar la existencia física del inmueble.
Correlación de datos: Verifique que la fachada coincida con las fotos promocionadas.
Historial de reseñas: Busque comentarios recientes. Las víctimas suelen alertar rápidamente en estos foros.
Contacto directo: No utilice los canales provistos en el anuncio sospechoso. Busque el teléfono oficial en la ficha de Google Business y llame para confirmar la disponibilidad.
3. Verificación de Identidad Fiscal (Compliance)
En Argentina, la actividad comercial debe estar registrada. Solicite el CUIT del locador o la empresa.
Consulta pública: Verifique en la web de AFIP que la actividad declarada coincida con el rubro hotelero o inmobiliario.
Agencias: Si contrata por intermediario, corrobore su inscripción en la FAEVYT (Federación Argentina de Asociaciones de Empresas de Viajes y Turismo).
4. Trazabilidad de la Plataforma
El principio de seguridad en plataformas como Airbnb o Booking reside en que actúan como garantes de los fondos. El estafador intentará sacarlo del ecosistema seguro ("fishing"), ofreciendo descuentos por transferencia directa a un CBU/CVU personal. Nunca acepte operar por fuera de la plataforma oficial.
5. Preservación de Evidencia Digital
Si tiene dudas, documente todo. Guarde capturas de pantalla, URLs, correos electrónicos y comprobantes. En caso de litigio penal, la cadena de custodia de esta evidencia digital será vital para la denuncia y la investigación fiscal.
La prevención es la herramienta más eficaz en el derecho penal moderno; ante la duda sobre la legitimidad de una operación, absténgase de transferir.
No obstante, si el ilícito ya se ha consumado y su patrimonio se ha visto afectado, la inmediatez en la respuesta judicial es crítica para asegurar la prueba y evitar la impunidad. En nuestro Estudio Jurídico “ORTIZ PELLEGRINI y Asociados” brindamos asistencia legal especializada para la constitución de querellas y la representación de víctimas, con el objetivo de impulsar la investigación penal y perseguir la reparación del perjuicio económico. Contáctenos para evaluar su caso y diseñar una estrategia de litigación adecuada.
#DerechoPenal #Ciberdelito #Estafas #Compliance #TurismoSeguro #AbogadoPenalista #Argentina #SeguridadDigital
Dr. Eduardo Santiago Caeiro | Especialista en Delitos de contenido Penal Económico | Abogado penalista en Córdoba | Director de Litigación Penal Estratégica
Agendá tu consulta por Whatsapp
En un entorno donde la tecnología avanza vertiginosamente, el sector legal atraviesa una transformación irreversible. La premisa es clara: la inteligencia artificial no reemplazará al abogado, pero el profesional que la utiliza desplazará inevitablemente a quien no lo haga. El Legal Tech ha dejado de ser una opción para convertirse en la herramienta que define a los líderes del cambio.
¿Qué es el Legal Tech y por qué es vital hoy?
Es el uso estratégico de software, IA y herramientas digitales para optimizar y automatizar la prestación de servicios legales. Su propósito fundamental es liberar al abogado de tareas repetitivas, permitiéndole aportar su verdadero valor en:
Estrategia y Creatividad.
Negociación compleja.
Asesoramiento de alto nivel.
Beneficios e Impacto Real:
La adopción de IA generativa (como Gemini, ChatGPT o Claude) permite alcanzar niveles de eficiencia sin precedentes:
Automatización: Generación de contratos y gestión de expedientes en segundos.
Análisis Predictivo: Investigación ultrarrápida de jurisprudencia y predicción de fallos.
Reducción de Costos: Procesos más ágiles, transparentes y económicos para el cliente.
El Abogado del Siglo XXI: Nuevas Competencias
La tecnología por sí sola es insuficiente; el cambio real reside en la mentalidad del profesional. Para triunfar en este nuevo ecosistema, es esencial desarrollar habilidades como el aprendizaje continuo (lifelong learning), metodologías ágiles (Agile Law) y el dominio de la ingeniería de prompts.
Superar la resistencia cultural y el miedo a la innovación es el primer paso para dominar herramientas que ya permiten automatizar hasta el 70 % de las tareas repetitivas en los Estudios Jurídicos.
Conclusión:
El Legal Tech no es el futuro; es el presente. Aquellos que inviertan hoy en formación y adopten la IA con responsabilidad serán los líderes indiscutibles del mercado legal.
#LegalTech #InteligenciaArtificial #IAGenerativa #AbogaciaDelFuturo #InnovacionJuridica #TransformacionDigital #DerechoYTecnologia #EficienciaLegal #PromptEngineering #AgileLaw #Compliance #JurisprudenciaIA
Dr. Eduardo Santiago Caeiro | Especialista en Delitos de contenido Penal Económico | Abogado penalista en Córdoba | Director de Litigación Penal Estratégica
Agendá tu consulta por Whatsapp
La Instrucción 2/2026 del Consejo General del Poder Judicial (CGPJ) de España, es un marco pionero para el uso de inteligencia artificial (IA) en la función jurisdiccional. Esta norma, elaborada por expertos como Joaquín Delgado Martín, establece límites claros para integrar IA sin comprometer la independencia judicial ni los derechos humanos.
En resumen, la Instrucción aplica a todos los sistemas de IA, priorizando aquellos proporcionados por autoridades oficiales con auditorías estrictas. Permite usos auxiliares como búsquedas jurídicas, resúmenes internos y borradores de resoluciones (siempre con revisión humana), pero prohíbe la automatización de decisiones, valoración de pruebas o interpretación del Derecho. Se basa en principios como control humano efectivo, responsabilidad judicial, prevención de sesgos y respeto a la confidencialidad.
En Argentina, sin embargo, no existe una disposición federal equivalente. Aunque hay iniciativas provinciales en Chaco y Santa Fe, el vacío normativo a nivel nacional es alarmante. Esto expone a ciudadanos a riesgos como sesgos algorítmicos en fallos penales, violaciones a la privacidad (Ley 25.326) y desigualdades interprovinciales, contraviniendo artículos constitucionales como el 16 (igualdad) y 18 (tutela efectiva).
Imaginemos un juez usando IA generativa sin pautas: ¿qué pasa si un "borrador" sesgado influye en una condena? En un país con alta carga judicial, la IA puede optimizar, pero sin regulación, amenaza el Estado de Derecho.
Es urgente que el Congreso de la Nación, las Legislaturas provinciales o los Poderes Judiciales Federales y Provinciales adopten una norma similar, alineada con estándares internacionales (UNESCO, OCDE).
#InteligenciaArtificial #SistemasIA #IAGenerativa #ReglamentoIA #FuentesAbiertas #DatosJudiciales
Dr. Eduardo Santiago Caeiro | Especialista en Delitos de contenido Penal Económico | Abogado penalista en Córdoba | Director de Litigación Penal Estratégica
Agendá tu consulta por Whatsapp
INTRODUCCIÓN
El panorama del derecho penal económico y los ciberdelitos se encuentra en constante mutación. Recientemente, se ha detectado un incremento alarmante en una nueva modalidad de phishing en tiempo real, conocida coloquialmente como la "estafa de la pantalla compartida". Esta técnica de ingeniería social está vulnerando la seguridad bancaria de los usuarios mediante videollamadas de WhatsApp, eludiendo las barreras de protección tradicionales sin necesidad de solicitar claves de acceso verbalmente.
EL MODUS OPERANDI: LA INGENIERÍA SOCIAL COMO ARDID
Desde la perspectiva de la criminalística y el análisis de la conducta delictiva, esta modalidad presenta un refinamiento en la ejecución del ardid (Art. 172 del Código Penal). La mecánica se despliega en entornos de compraventa (ej. Facebook Marketplace) y consta de fases precisas:
La Urgencia Simulada: El autor del hecho contacta al vendedor mostrando un interés inmediato, anulando el juicio crítico de la víctima mediante la premura.
El Pretexto Técnico: Bajo la excusa de una "mala conexión" o "video borroso" durante una videollamada, se induce al damnificado a utilizar la función de "compartir pantalla".
La Sustracción de Credenciales: Al tener visibilidad total del dispositivo, el delincuente gatilla procesos de recuperación de contraseñas. Los códigos de verificación (OTP) que llegan vía SMS o notificaciones push son leídos en tiempo real por el estafador, consumando el acceso ilegítimo a cuentas bancarias y billeteras virtuales.
ENCUADRE JURÍDICO: ¿ESTAFA O DEFRAUDACIÓN INFORMÁTICA?
La doctrina y jurisprudencia actual debaten la calificación legal de estos supuestos. Si bien existe un despliegue de ingeniería social que induce a error a la víctima (característico de la estafa genérica del Art. 172 C.P.), la sustracción de fondos posterior mediante la manipulación de claves encuadra específicamente en la figura de Defraudación Informática (Art. 173 inc. 16 del Código Penal).
La particularidad de este ilícito reside en que el autor no necesita "hackear" el sistema en el sentido tradicional, sino que utiliza al propio usuario como "puerta trasera" (backdoor), explotando la confianza y el desconocimiento técnico sobre la funcionalidad de compartir pantalla. Esto eleva la complejidad probatoria y subraya la importancia de la evidencia digital para la trazabilidad de la maniobra.
MEDIDAS DE PREVENCIÓN Y DILIGENCIA
Como profesionales del derecho, es nuestro deber advertir sobre estas prácticas para mitigar riesgos patrimoniales. Se recomienda:
Cero Confianza en Videollamadas: Desestimar solicitudes de videollamada de desconocidos en transacciones comerciales.
Protección de Datos: Jamás activar la función de compartir pantalla ante terceros no verificados.
Seguridad en Capas: Activar la verificación en dos pasos (2FA) en aplicaciones como WhatsApp, preferentemente mediante aplicaciones autenticadoras y no por SMS, dado que estos últimos son visibles en la pantalla compartida.
CONCLUSIÓN
La "estafa de la pantalla compartida" demuestra que la barrera más frágil en la ciberseguridad sigue siendo el factor humano. La prevención y la actualización constante sobre estas modalidades delictivas son herramientas fundamentales tanto para la defensa de los derechos de las víctimas como para la práctica del derecho penal moderno.
#DerechoPenal #Ciberdelito #Estafas #SeguridadInformatica #Abogacia #Argentina #Prevención
Dr. Eduardo Santiago Caeiro | Especialista en Delitos de contenido Penal Económico | Abogado penalista en Córdoba | Director de Litigación Penal Estratégica
Agendá tu consulta por Whatsapp
La irrupción de la Inteligencia Artificial Generativa ha transformado el panorama de la evidencia digital. Técnicamente, un deepfake (acrónimo de deep learning y fake) es un archivo de video, imagen o audio generado mediante Redes Generativas Antagónicas (GANs). Esta tecnología permite suplantar la identidad de una persona con un grado de hiperrealismo tal que resulta indistinguible para el ojo humano no entrenado.
En el ámbito jurídico, esto plantea un desafío sin precedentes: la transición de la certeza visual a la duda razonable técnica. Lo que antes constituía una prueba irrefutable —un video de un individuo cometiendo un acto o realizando una declaración— hoy debe ser sometido a rigurosos peritajes informáticos para descartar su naturaleza sintética.
Si bien el Código Penal Argentino no posee aún un tipo penal autónomo que criminalice la creación de deepfakes per se, la conducta se encuadra en figuras tradicionales bajo la doctrina de la instrumentalidad tecnológica. El deepfake no es el fin, sino el medio comisivo para vulnerar bienes jurídicos protegidos:
La Fe Pública y la Estafa (Arts. 172 y 173 CP):
Se observa un incremento en el uso de clonación de voz y video para eludir sistemas de seguridad biométrica bancaria o para inducir a error a terceros, configurando el ardid o engaño característico de la estafa. El autor simula ser un directivo o familiar para autorizar transferencias, donde la suplantación de identidad es el núcleo del desapoderamiento patrimonial.
Extorsión y Delitos contra el Honor (Arts. 168 y 109 CP):
La modalidad de la "Sextorsión" ha evolucionado. Ya no se requiere material íntimo real; el delincuente genera videos sintéticos de contenido sexual (pornografía no consensuada) y amenaza a la víctima con su difusión si no se entrega una suma de dinero. Aquí, la intimidación es real y el daño a la reputación es tangible, independientemente de la falsedad del material.
El Fraude Procesal y la Prueba Ilícita:
Quizás el riesgo más grave para la administración de justicia es la introducción de evidencia manipulada en el proceso penal. Un video falso plantado para incriminar a un imputado o para fabricar una coartada exige que la defensa penal ejerza un control crítico sobre la cadena de custodia digital y los metadatos de los archivos ofrecidos como prueba.
Ante la sospecha de ser víctima de un delito ejecutado mediante esta tecnología, o ante la aparición de evidencia digital dudosa, se sugieren tres líneas de acción inmediata:
1. Preservación Forense (No eliminación):
El instinto natural es borrar el contenido o bloquear al remitente. Desde la estrategia penal, esto es un error. Se debe preservar la prueba mediante constatación notarial o peritaje informático privado que asegure el hash (huella digital) del archivo. Sin el archivo original y sus metadatos, la persecución penal pierde su sustento fáctico.
2. Validación por Canales Alternativos:
En el ámbito corporativo o personal, ante una videollamada o mensaje de audio inusual (especialmente aquellos que solicitan urgencia financiera), se debe aplicar el protocolo de "doble factor humano": cortar la comunicación y verificar la identidad llamando por una línea telefónica tradicional o formulando preguntas de control cuya respuesta no sea de dominio público.
3. Acción Judicial Preventiva:
Dada la velocidad de viralización, la respuesta legal no puede esperar a la sentencia final. Se debe actuar con urgencia, para solicitar medidas cautelares urgentes (bloqueo de URLs, desindexación en buscadores) ante la fiscalía especializada en cibercrimen, amparándose en la protección de la imagen y la intimidad mientras se instruye la causa penal.
La tecnología deepfake ha borrado la línea entre la realidad y la ficción digital, obligando al Derecho Penal a actualizar sus estándares de admisión probatoria. Ya no basta con presentar un video; hoy es imperativo acreditar su integridad técnica. En un entorno donde la identidad puede ser clonada, el asesoramiento legal especializado en evidencia digital deja de ser un valor agregado para convertirse en una necesidad fundamental para la defensa de la libertad, el patrimonio y el honor.
#Deepfake #InteligenciaArtificial #SeguridadDigital #SuplantacionDeIdentidad #IAgenerativa #Ciberseguridad#DerechoPenal #Cibercrimen #EvidenciaDigital #DelitosInformaticos #AbogadoPenalista #PruebaDigital
Dr. Eduardo Santiago Caeiro | Especialista en Delitos de contenido Penal Económico | Abogado penalista en Córdoba | Director de Litigación Penal Estratégica
Agendá tu consulta por Whatsapp
En el actual panorama de la ciberseguridad, las modalidades de fraude han evolucionado significativamente. Ya no se trata únicamente de la sustracción de credenciales de acceso (usuario y contraseña), sino de una amenaza más compleja: el robo de datos biométricos faciales para la suplantación de identidad mediante Inteligencia Artificial (IA).
A continuación, analizamos cómo opera esta ingeniería del engaño y las medidas de prevención esenciales para mitigar el riesgo de fraude financiero.
La nueva estafa detectada utiliza la Inteligencia Artificial para capturar el rostro de la víctima con el fin de suplantar su identidad y cometer ilícitos económicos. Esta técnica se basa en la creación de deepfakes, que son imágenes o videos generados por IA con un nivel de realismo tal que pueden engañar a los sistemas automáticos de verificación.
El crecimiento de esta modalidad es alarmante. Según el informe Cyber Signals de Microsoft (2024), el uso de deepfakee para fraudes financieros aumentó más de un 1.000% en un solo año, focalizándose especialmente en la suplantación de identidad durante los procesos de verificación conocidos como Know Your Customer (KYC).
Los atacantes no solicitan los datos biométricos de manera directa, sino que construyen una narrativa convincente para inducir al error. El proceso delictivo se estructura en cuatro fases:
1. El pretexto atractivo: El fraude inicia con el ofrecimiento de un beneficio falso, como descuentos exclusivos, promociones limitadas o acceso prioritario a créditos sin requisitos.
2. Redireccionamiento a sitios apócrifos: La víctima es dirigida a una página web falsa que emula la estética (colores, logos y tipografía) del sitio oficial. Es importante destacar que los delincuentes suelen pagar anuncios en buscadores (como Google Ads) para que estos sitios fraudulentos aparezcan en los primeros resultados de búsqueda.
3. Captura de datos y biometría: Bajo la excusa de "validar el beneficio", se solicita al usuario su DNI y se le requiere activar la cámara para realizar movimientos o gestos específicos. En este paso, los atacantes graban el material necesario para el fraude.
4. Generación del doble digital: Con el DNI y las imágenes capturadas, los estafadores entrenan modelos de IA para crear un clon digital capaz de superar validaciones biométricas.
El objetivo final es utilizar esta identidad sintética para la apertura de cuentas bancarias o fintech, la solicitud de préstamos y el acceso a servicios que dependen de la verificación facial.
Organismos de seguridad internacionales ya han advertido sobre esta tendencia. La Oficina de Seguridad del Internauta de España (OSI) emitió alertas sobre la fabricación de perfiles falsos para evadir controles biométricos. Asimismo, el Centro Criptológico Nacional de España advirtió en 2024 sobre el uso activo de deepfakes en fraudes de identidad dentro del sector financiero.
Aunque existen diversas formas de protección, la estrategia más efectiva para neutralizar este tipo de ataque en su etapa inicial es evitar el acceso a las plataformas fraudulentas. Para ello, se recomienda seguir una regla estricta:
-Ingreso directo por URL: Se debe escribir siempre la dirección oficial del sitio web directamente en la barra del navegador, evitando utilizar buscadores para encontrar la página.
-Evitar enlaces externos: No se debe ingresar a través de enlaces recibidos por mensajería (WhatsApp) o correos electrónicos que prometan promociones exclusivas.
-Uso de aplicaciones oficiales: En caso de operar desde dispositivos móviles, se debe acceder siempre desde el ícono de la aplicación instalada y nunca desde links externos.
Al aplicar este control, se impide que el usuario entregue su DNI y su registro facial a un sitio clonado, imposibilitando así la creación del deepfake. En la era digital, el rostro funciona como una llave de acceso a servicios críticos, por lo que su protección es tan vital como la de una contraseña.
Deepfakes - Ciberdelito - Biometría - Robo de identidad - Inteligencia Artificial (IA) - Fraude financiero - Ciberseguridad - Suplantación de identidad - Phishing
Dr. Eduardo Santiago Caeiro | Especialista en Delitos de contenido Penal Económico | Abogado penalista en Córdoba | Director de Litigación Penal Estratégica
Agendá tu consulta por Whatsapp
La aprobación del Reglamento (UE) 2024/1689, conocido mundialmente como la Ley de Inteligencia Artificial (RIA), no es solo una noticia para el sector tecnológico o el derecho corporativo. Representa el establecimiento del primer marco jurídico integral del mundo para la IA, creando un precedente que, inevitablemente, permeará todos los fueros y especialidades del derecho en Argentina y la región.
Para el abogado moderno, comprender el RIA no es opcional; es una necesidad para entender las reglas del juego que regirán las herramientas que usamos y los conflictos que litigaremos.
a. Una Regulación que Protege Derechos Fundamentales
A diferencia de otras normas técnicas, el RIA pone al ser humano en el centro. Clasifica la tecnología según su potencial para afectar derechos esenciales, algo que concierne a todo operador jurídico:
Sistemas Prohibidos: Se vedan prácticas que atentan contra la dignidad humana, como el "social scoring" o la manipulación subliminal del comportamiento.
Sistemas de Alto Riesgo: Aquí se incluyen las IAs usadas en la administración de justicia, la educación o el empleo. Esto significa que cualquier software que asista a un juez en la toma de decisiones o evalúe pruebas deberá cumplir con estándares de transparencia y precisión altísimos.
Transparencia (IA Generativa): Se obliga a revelar cuándo un contenido (texto, imagen, audio) ha sido generado artificialmente. Esto es crucial para el derecho probatorio en todos los fueros, ante el auge de los deepfakes y la evidencia digital adulterada.
b. El Impacto en el Ejercicio Profesional y la Ética
El RIA introduce un principio rector para la abogacía: la supervisión humana. La ley establece que la responsabilidad final no puede delegarse en un algoritmo.
Para el abogado litigante o asesor, esto tiene dos lecturas inmediatas:
En la Gestión del Despacho: Al contratar software legal (LegalTech) que utilice IA para revisar contratos o predecir sentencias, el abogado debe asegurarse de que estas herramientas cumplan con estándares de calidad y no tengan sesgos discriminatorios.
En el Asesoramiento: Clientes de todas las industrias —desde una PYME que usa chatbots para atención al cliente hasta una empresa de salud que usa algoritmos de diagnóstico— necesitarán asesoramiento preventivo para no incurrir en responsabilidades civiles o administrativas.
c. ¿Por qué importa en Argentina?
El llamado "Efecto Bruselas" implica que las empresas tecnológicas globales adaptarán sus productos al estándar más alto (el europeo) para no perder ese mercado. En consecuencia, la tecnología que llegará a nuestros estudios jurídicos y tribunales en Córdoba y el resto del país estará moldeada por esta ley.
Además, ante el vacío legal local, el RIA se convertirá en la fuente doctrinaria y de derecho comparado por excelencia para fundamentar demandas y sentencias relacionadas con daños, mala praxis o incumplimientos contractuales derivados del uso de software.
d. Conclusión
El Reglamento de Inteligencia Artificial nos recuerda que la tecnología es una herramienta poderosa, pero el Derecho sigue siendo su maestro. Como abogados, nuestra misión es garantizar que la innovación no atropelle las garantías constitucionales. Estar formados en estos nuevos marcos normativos es lo que diferenciará al profesional reactivo del abogado estratégico del futuro
Reglamento de Inteligencia Artificial, Ley de IA Unión Europea, RIA 2024, Regulación Inteligencia Artificial, Derecho y Tecnología, Impacto Ley IA en Argentina, Reglamento IA para abogados, Responsabilidad legal inteligencia artificial, Marco legal IA Córdoba, Prueba digital, Deepfakes, Compliance IA, LegalTech, Ética Jurídica, Defensa Penal Corporativa.
Dr. Eduardo Santiago Caeiro | Especialista en Delitos de contenido Penal Económico | Abogado penalista en Córdoba | Director de Litigación Penal Estratégica
Agendá tu consulta por Whatsapp
La Inteligencia Artificial Generativa (IAGen) no ha llegado para reemplazarnos, sino para elevarnos. Sin embargo, existe una gran diferencia entre "chatear" con una IA y utilizarla como una verdadera herramienta de Litigación Penal Estratégica.
Como abogados, debemos entender que estos sistemas (LLMs) no "saben" derecho en el sentido humano; son modelos probabilísticos que predicen la siguiente palabra más lógica en una secuencia. Por ello, la calidad de la respuesta que obtenemos depende intrínsecamente de la calidad de nuestra instrucción. O como decimos en tecnología: Garbage in, garbage out (si entra basura, sale basura).
A continuación, comparto claves fundamentales sobre Prompt Engineering (Ingeniería de Instrucciones) aplicadas al derecho, basadas en mi investigación y práctica profesional:
1. La Anatomía de una Instrucción Perfecta
Para tareas jurídicas complejas, un prompt vago ("escribe una demanda") genera resultados difusos. Una instrucción profesional debe contener, al menos, dos elementos obligatorios:
La Instrucción: Una orden imperativa con verbos de acción claros (redactar, argumentar, clasificar).
El Contexto: Antecedentes del caso, el rol que debe asumir la IA y las restricciones aplicables.
Si queremos precisión, podemos sumar el formato (tablas, memorandos) y el tono (técnico, persuasivo, académico).
2. Técnicas para evitar "Alucinaciones"
El mayor riesgo de la IA es la generación de información falsa o jurisprudencia inexistente. Para mitigar esto, utilizo la técnica de Conocimiento Integrado:
Consiste en pegar el texto de la ley, la jurisprudencia real o los hechos del caso en el prompt y ordenar al modelo que responda basándose únicamente en esa información provista.
3. Razonamiento Jurídico Asistido
Para escritos complejos, no pidas el resultado final de inmediato. Aplica la "Cadena de Pensamiento" (Chain of Thought). Instrúyele al modelo para que explique su razonamiento paso a paso antes de dar la conclusión. Esto nos permite, como expertos humanos, auditar la lógica y detectar errores antes de validar el contenido.
4. La Ética es Indelegable
El uso de estas herramientas exige un estándar ético absoluto. Jamás se deben introducir nombres reales de clientes o datos sensibles en plataformas públicas; el deber de confidencialidad y la protección de datos son sagrados. Todo debe ser anonimizado previamente.
Conclusión: La IA es una herramienta auxiliar poderosa para redactar, resumir y analizar, pero la estrategia, la validación final y la responsabilidad recaen exclusivamente en el abogado. La tecnología procesa datos; nosotros aportamos el criterio, la experiencia y la humanidad.
¿Y ustedes? ¿Ya están implementando técnicas de prompting en su práctica diaria o siguen mirando a la IA desde lejos?
Dr. Eduardo Santiago Caeiro | Especialista en Delitos de contenido Penal Económico | Abogado penalista en Córdoba | Director de Litigación Penal Estratégica
Agendá tu consulta por Whatsapp