paint-brush
Un pseudoexperimento de IA: bloquear todas las herramientas de IA que uso durante un díapor@buzzpy
484 lecturas
484 lecturas

Un pseudoexperimento de IA: bloquear todas las herramientas de IA que uso durante un día

por Chenuli J.7m2025/02/23
Read on Terminal Reader

Demasiado Largo; Para Leer

El blog de Programación y Garabatos es una mirada semanal y poco convencional a lo que está sucediendo en el mundo de la programación. Esta semana, analizamos un pseudoexperimento: bloquear todas las herramientas de inteligencia artificial que uso y, sin embargo, trabajo como redactor técnico.
featured image - Un pseudoexperimento de IA: bloquear todas las herramientas de IA que uso durante un día
Chenuli J. HackerNoon profile picture


https://codedoodles.substack.com/p/do-not-open


Hola gente hermosa!


¡Bienvenidos al blog de Programación y Garabatos! En este artículo, les voy a presentar los resultados de un pseudo-experimento: bloquear todas las herramientas de IA que uso y, sin embargo, trabajo como en un día normal (como desarrollador y redactor técnico).


Suscríbete para recibirlos directamente en tu bandeja de entrada: https://codedoodles.substack.com/


Desde que se lanzaron ChatGPT y otros chatbots y herramientas de IA, gradualmente perdimos el control de nuestro trabajo. Su uso para escribir y depurar código, correos electrónicos e incluso mensajes breves probablemente dio como resultado esta situación. Peor aún, he visto publicaciones que afirman "Las investigaciones muestran que el uso de IA disminuye nuestra capacidad de pensamiento crítico". Eso me preocupa: ¿aún tengo las habilidades que tenía en 2020-22 antes del lanzamiento de ChatGPT?


No puedo estar en desacuerdo: las herramientas de inteligencia artificial ahorran mucho tiempo y aumentan la productividad. Pero, ¿a qué precio? Si estamos perdiendo lentamente la capacidad de pensar y resolver problemas por nosotros mismos, estamos arruinando uno de los mayores regalos de la humanidad.


Sin embargo, al leer esto, no me malinterpreten: no odio la IA. Creo que es un concepto asombroso que los programadores han creado y que todos usamos con regularidad. Incluso ahora, mi extensión Grammarly me muestra formas de mejorar estas oraciones usando IA. Lo único que no me gusta es la forma en que confiamos demasiado en ella. ¡Debería escribir otro artículo sobre esto!

Acerca del experimento

Volviendo al contexto, me sentí un poco decepcionado por lo mucho que uso la IA para hacer mi trabajo y decidí bloquear todas las herramientas de IA por un día . Afortunadamente, no había descargado ninguna de estas aplicaciones en mi MacBook, así que todo lo que necesitaba hacer era obtener una extensión para bloquear ChatGPT, Claude, Gemini y DeepSeek.


Este artículo fue escrito simultáneamente con el trabajo y, durante la fase de edición, me di cuenta de que se veía un poco… raro. Es el proceso de “pensamiento” de mi tonto cerebro humano, como el razonamiento de ChatGPT. Les pido por la presente que no me juzguen por este artículo.

 Date: Feb 17th, 2025 The to-do list: - Write a script to scrape Bing Search results (for a tutorial on building a scraper). - Review the PR #6 on GitHub. - Improve SEO of my personal site, chenuli.codedoodles.xyz (current SEO score was 85) - If more time's left, design a merch product.

(Qué lista de cosas por hacer tan pequeña, sí, soy mi propio jefe)

Escribiendo un guión

El web scraping en Python es uno de los programas más sencillos que se pueden escribir y, a menudo, se pasa por alto. He escrito unos 3 o 4 artículos sobre el web scraping en varias plataformas como TikTok con Apify, pero todo lo que se necesitó fue un aviso o dos en ChatGPT para escribir el script:

 Write a python script using selenium and chromedriver to scrape "Trending Videos" page on TikTok. Structure: Page consists of a card-like structure which consists of trending videos on TikTok. These are inside a <div> container with the class of tiktok-559e6k-DivItemContainer e1aajktk28 blah blah and blah

Pero esta vez es diferente. Primero escribiría la base del script, lo probaría y lo optimizaría según las necesidades.


Pasé unos minutos decidiendo qué biblioteca usar: Playwright, Selenium o Beautiful Soup. Beautiful Soup me pareció la opción más fácil y sencilla, así que me decidí por ella.

 import requests from bs4 import BeautifulSoup 



Entonces debería escribir un encabezado que imite una solicitud real del navegador, para que no me bloquee la protección contra bots (o CAPTCHA). Me resulta un poco imposible escribirlo yo mismo con precisión, así que abrí ChatGPT sin querer . Da miedo, sí, pero lo mejor es que lo bloquearan.


Después de mucho tiempo, recurrí a Google para solicitar una muestra. ¡Qué salvación!

 headers={"User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/111.0.0.0 Safari/537.36"}

Entonces probablemente debería crear un enlace de búsqueda como los que usa Bing. Supongo que debe ser similar al de Google.


Hummm, no está mal


Debería identificar las variables de clase (¿así se llaman?) para extraerlas individualmente.


Bing hace un buen trabajo en este aspecto. Los resultados se presentan en una estructura de lista, <ol> , en la que cada elemento de la lista es un único resultado de búsqueda. Eso hace que las cosas sean mucho más fáciles. Puedo extraer todos estos elementos <li> de la página y asignarlos a una variable y, luego, mediante un bucle, puedo dar formato claramente a los encabezados y enlaces. ¡Genial! No es un método genial, pero al menos no he perdido por completo mi capacidad de pensar.

 completeData = soup.find_all("li",{"class":"b_algo"})

¡Vaya, qué tontería! Solo utiliza un bucle innecesario y tampoco es reutilizable.


Podemos simplemente repetir la lista de elementos y agregar también algún control de errores.

 for item in soup.find_all("li", class_="b_algo"): title = item.find("h2") link = title.find("a")["href"] if title else "" results.append((title.text if title else "No title", link)) if response.status_code != 200: print("Failed to retrieve search results") return []


Eso está mucho mejor. Finalmente, podemos agregar otro bucle para formatear e imprimir los resultados como corresponde.

 search_results = scrape_bing("Programming and Doodles") for title, link in search_results: print(f"{title}: {link}")


Dos pequeños errores de sintaxis después, ¡funciona!



Fue una sensación increíble, como en los viejos tiempos.

Revisión de un PR en GitHub

Esto no debería llevar mucho tiempo. Es solo un script de Python largo.


¡Que dulce muchacho!


Al observar el PR, el código no ha interferido con las operaciones. Sin embargo, los elementos no están centrados como en el original que creé. Pero esta es la segunda vez que reviso este PR y este colaborador parece nuevo. Pedir cambios nuevamente me sentiría mal, simplemente lo arreglaría yo mismo y daría una buena reseña.


Al inspeccionar el código, ha hecho un buen trabajo. Pero por alguna razón, debe haber colocado una variable persistente en la interfaz gráfica de usuario. Déjame eliminarla.


Mmm, sigue sin funcionar. Debería haber algo en el tkinter que admita el centrado de elementos.


Recuerdo la palabra clave rel, pero es agotador agregarla a todos los elementos. La mayoría de los resultados en Google muestran lo mismo.


¡Encontré uno! Podemos usar grid_columnconfigure para ello. Gracias, bitRAKE en StackOverflow.


Ufff, puedo sobrevivir bien sin IA como desarrollador en 2025.

Mejorando el SEO

Recientemente construí un sitio web personal (no un portafolio), pero su puntuación SEO es un poco terrible.


Mi forma preferida de mejorar el SEO es siempre usar datos estructurados (marcado de esquema) para obtener resultados enriquecidos. Si no lo sabías, es una forma de metadatos que ayuda a los motores de búsqueda a comprender mejor tu contenido, lo que genera funciones mejoradas en los resultados de búsqueda, como fragmentos enriquecidos, preguntas frecuentes y paneles de conocimiento. Si el SEO de tu sitio no es 100%, habilitar resultados enriquecidos posiblemente lo haga 100%.


Esto es algo que le pediría a ChatGPT que hiciera: escribiría el contenido y le pediría que usara la sintaxis adecuada. Esto reduce enormemente el tiempo que lleva hacerlo, pero como está bloqueado, pensé que lo escribiría yo mismo.


O puedo copiar y pegar el código de esquema de mi sitio principal, codedoodles.xyz, y modificarlo. De todos modos, es mi código.



Además, también puedo agregar una sección de preguntas frecuentes. Pero recuerdo haber leído que la política de Google establece que no se pueden agregar marcas de esquema para contenido que no está visible en el sitio web. Obviamente, mi sitio web no tiene una sección de preguntas frecuentes.


Pero no hay problema. Puedo añadir una pregunta como "¿Quién es Chenuli Jayasinghe?" y la respuesta sería un resumen del contenido del sitio web. ¡Todos ganan!



Se ve genial. La puntuación debería aumentar después de la implementación.



Hummm, no está mal, pero puede ir más arriba; el sitio web principal, codedoodles.xyz, obtuvo un 100, así que este debería tenerlo. Este es el punto en el que le pediría sugerencias a ChatGPT o DeepSeek, pero espere, tengo una ventaja: puedo verificar el código de codedoodles.xyz para saber qué lo convierte en un 100.


¿Opengraph? Listo.


¿Tarjeta de Twitter? Listo.


¿Marcado de esquema? También hecho.


¿Qué más? Déjame añadir algunas palabras clave más.


Sigue igual.


Ah, sí, debo haber pasado por alto las descripciones «alt» de las imágenes.


No, ya lo he añadido. Vaya, ¿qué tan estúpido puedo ser? El propio informe de Lighthouse muestra los detalles.


El problema es el archivo robots.txt. Los sitios web codedoodles.xyz y chenuli.codedoodles.xyz usan la misma estructura, por lo que debería poder copiar y pegar algunos archivos.


Tal como en los viejos tiempos.


¡Sí! Ya es 100.



Y eso debería ser todo. El diseño de merchandising no tiene nada que ver con los chatbots de IA, y sobreviví al trabajo. ¡Es hora de leer un libro, gran desarrollador!

Resumiendo


Mi suposición de que era un desarrollador estúpido e indefenso sin IA era falsa, y estoy feliz por ello. Aunque mi pensamiento crítico puede haberse visto afectado (cometí algunos errores tontos), todavía puedo hacer las cosas. Todo el proceso llevó más tiempo de lo habitual, especialmente escribir ese script de scraping, pero fue más gratificante. Fue como encontrar tu vieja bicicleta en el garaje y darte cuenta de que no te has olvidado de cómo montarla.


Y claro, abrí ChatGPT sin querer algunas veces, y sí, buscar en Google y copiar/pegar me hizo sentir un poco culpable. Pero bueno, así es como codificábamos antes de 2022, ¿no? Stack Overflow y la documentación eran nuestros mejores amigos, y todavía funcionan perfectamente bien.


La principal conclusión es que usar herramientas de IA está bien y es comprensible. Pero de vez en cuando, haz lo que yo acabo de hacer: bloquea esos LLM e intenta hacer el trabajo tú mismo. Te sentirás genial, créeme.


Y, por favor, no seas como este tipo de Reddit. Usa tu cerebro.