paint-brush
Un pseudoexperiment d'IA: bloquejar totes les eines d'IA que faig servir durant un dia per@buzzpy
492 lectures
492 lectures

Un pseudoexperiment d'IA: bloquejar totes les eines d'IA que faig servir durant un dia

per Chenuli J.7m2025/02/23
Read on Terminal Reader

Massa Llarg; Per llegir

El bloc de programació i doodles és una mirada setmanal i poc habitual del que està passant al món de la programació. Aquesta setmana, analitzem un pseudoexperiment: bloquejar totes les eines d'IA que faig servir i, tot i així, treballar com a escriptor tècnic.
featured image - Un pseudoexperiment d'IA: bloquejar totes les eines d'IA que faig servir durant un dia
Chenuli J. HackerNoon profile picture


https://codedoodles.substack.com/p/do-not-open


Hola gent preciosa!


Benvinguts al blog de programació i doodles! En aquest article, us presentaré els resultats d'un pseudoexperiment: bloquejar totes les eines d'IA que faig servir i, tot i així, funcionar com un dia normal (com a desenvolupador i escriptor tècnic).


Subscriviu-vos per rebre-los directament a la vostra safata d'entrada: https://codedoodles.substack.com/


Des que es van llançar ChatGPT i altres chatbots i eines d'IA, a poc a poc hem anat perdent el control del nostre treball. El fet d'utilitzar-lo per escriure i depurar codi, correus electrònics i fins i tot missatges curts, probablement va donar lloc a aquest escenari. Pitjor encara, he anat veient publicacions que diuen "La investigació demostra que l'ús de la IA disminueix la nostra capacitat de pensament crític". Això em preocupava: encara tinc les habilitats que tenia, el 2020-22 abans del llançament de ChatGPT?


No puc estar en desacord: les eines d'IA estalvien molt de temps i augmenten la productivitat. Però a quin preu? Si lentament anem perdent la capacitat de pensar i resoldre els problemes nosaltres mateixos, estem arruïnant un dels regals més grans per a la humanitat.


Tanmateix, llegint això, no ho malinterpreu: no odio la IA. Crec que és un concepte sorprenent donat a la vida pels programadors, i tots el fem servir regularment. Fins i tot ara, la meva extensió Grammarly m'està mostrant maneres de millorar aquestes frases amb IA. L'únic que no m'agrada és la manera com ens confiem massa en ells. Dispara, hauria d'escriure un altre article sobre això!

Sobre l'experiment

Tornant al context, em va decebre una mica quant faig servir la IA per fer la meva feina i vaig decidir bloquejar totes les eines d'IA durant un dia . Afortunadament, no havia baixat cap d'aquestes aplicacions al meu MacBook, així que tot el que necessitava era obtenir una extensió per bloquejar ChatGPT, Claude, Gemini i DeepSeek.


Aquest article es va escriure simultàniament amb el treball , i en la fase d'edició em vaig adonar que semblava una mica... estrany. És el procés de "pensar" del meu cervell humà ximple, com el raonament de ChatGPT. Per la present et demano que no em jutgis per aquest article.

 Date: Feb 17th, 2025 The to-do list: - Write a script to scrape Bing Search results (for a tutorial on building a scraper). - Review the PR #6 on GitHub. - Improve SEO of my personal site, chenuli.codedoodles.xyz (current SEO score was 85) - If more time's left, design a merch product.

(una llista de tasques tan petita, sí, sóc el meu propi cap)

Escriure un guió

El raspat web a Python és un dels programes més fàcils que podeu escriure i sovint es passa per alt. He escrit uns 3 o 4 articles sobre la raspadura de diverses plataformes com TikTok amb Apify, però només calia una o dues indicacions a ChatGPT per escriure l'script:

 Write a python script using selenium and chromedriver to scrape "Trending Videos" page on TikTok. Structure: Page consists of a card-like structure which consists of trending videos on TikTok. These are inside a <div> container with the class of tiktok-559e6k-DivItemContainer e1aajktk28 blah blah and blah

Però aquesta vegada és diferent. Primer escriuria la base de l'script, la provaria i l'optimitzaria segons les necessitats.


Vaig passar uns minuts decidint quina biblioteca utilitzar: Dramaturg, seleni o sopa preciosa. Beautifulsoup semblava l'opció més fàcil i senzilla, així que vaig anar-hi.

 import requests from bs4 import BeautifulSoup 



Aleshores, hauria d'escriure una capçalera imitant una sol·licitud real del navegador, per no ser bloquejat per la protecció de bot (o CAPTCHA). És una mica impossible per a mi escriure-ho jo mateix amb precisió, així que vaig obrir ChatGPT involuntàriament . Esgarrifós, sí, però va ser bloquejat per el millor.


Després de molt de temps, vaig fer servir Google per a una sol·licitud de mostra. Quin salvavides.

 headers={"User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/111.0.0.0 Safari/537.36"}

Aleshores, probablement hauria de crear un enllaç de cerca com els que utilitza Bing. Deu ser semblant a Google, suposo.


Hummm, no està malament


Hauria d'identificar les variables de classe (és així com en dius) per raspar-les individualment.


Bing fa una bona feina quan es tracta d'això. Els resultats es troben en una estructura de llista, <ol> , amb cada element de la llista un únic resultat de la cerca. Això facilita molt les coses. Puc eliminar tots aquests elements <li> de la pàgina i assignar-los a una variable i, després, amb un bucle, puc formatar clarament els encapçalaments i els enllaços. Endreçat! No és un mètode genial, però no he perdut completament la meva capacitat de pensar, almenys.

 completeData = soup.find_all("li",{"class":"b_algo"})

Ai dispara, això és ximple! Només utilitza un bucle innecessari i tampoc és reutilitzable.


Només podem fer un bucle de la llista d'elements. I afegim també una mica de gestió d'errors.

 for item in soup.find_all("li", class_="b_algo"): title = item.find("h2") link = title.find("a")["href"] if title else "" results.append((title.text if title else "No title", link)) if response.status_code != 200: print("Failed to retrieve search results") return []


Això és molt millor. Finalment, podem afegir un altre bucle per formatar i imprimir els resultats en conseqüència.

 search_results = scrape_bing("Programming and Doodles") for title, link in search_results: print(f"{title}: {link}")


Dos petits errors de sintaxi més tard, funciona!



Això em va semblar increïble. Igual que els bons vells temps.

Revisant un PR a GitHub

Això no hauria de trigar gaire. És només un script Python llarg.


Caram company!


Mirant el PR, el codi no ha interferit amb les operacions. Tanmateix, els elements no estan centrats com l'original que vaig crear. Però aquesta és la segona vegada que reviso aquest PR i aquest col·laborador sembla nou. Tornar a demanar canvis em faria malament, només ho solucionaria jo mateix i donaria una bona ressenya.


Inspeccionant el codi, ha fet una bona feina. Però per alguna raó, deu haver posat una variable enganxosa a la GUI. Deixa'm treure això.


Humm, encara no funciona. Hi hauria d'haver alguna cosa al tkinter que admeti elements de centratge.


Recordo la paraula clau rel, però és cansat afegir-la a tots els elements. La majoria dels resultats a Google mostren la mateixa manera.


Oh, n'he trobat un! Només podem utilitzar el grid_columnconfigure per a això. Gràcies, bitRAKE a StackOverflow.


Uf, puc sobreviure bé sense IA com a desenvolupador el 2025.

Millora del SEO

Recentment he creat un lloc web personal (no una cartera), però la seva puntuació de SEO és una mica horrible.


La meva manera de millorar el SEO sempre és utilitzar dades estructurades (marcat d'esquema), per obtenir resultats rics. Si no ho sabeu, és una forma de metadades que ajuda els motors de cerca a entendre millor el vostre contingut, donant lloc a funcions de resultats de cerca millorades, com ara fragments enriquits, preguntes freqüents i panells de coneixement. Si el SEO del vostre lloc no és 100, l'habilitació de resultats enriquits possiblement el faria 100.


Això és una cosa que demanaria a ChatGPT que fes; Escriuria el contingut i li demanaria que utilitzés la sintaxi adequada. Redueix molt el temps necessari, però com que està bloquejat, vaig pensar que l'escriuria jo mateix.


O puc copiar/enganxar el marcatge de l'esquema des del meu lloc principal, codedoodles.xyz, i canviar-lo. És el meu codi, de totes maneres.



A més, també puc afegir una secció de preguntes freqüents. Però recordo haver llegit que la política de Google diu que no podeu afegir marques d'esquema per al contingut que no és visible al lloc web. Evidentment, el meu lloc web no té una secció de preguntes freqüents.


Però això està bé. Encara puc afegir una pregunta com "Qui és Chenuli Jayasinghe", i la resposta seria un resum del contingut del lloc web. Guanya-guany!



Es veu genial. La puntuació hauria d'augmentar després del desplegament.



Humm, no està malament però pot anar més amunt; el lloc web principal, codedoodles.xyz, va obtenir un 100, així que ho hauria de fer. Aquest és el punt en què demanaria suggeriments a ChatGPT o DeepSeek, però espera, tinc un avantatge: puc comprovar el codi de codedoodles.xyz per saber què el fa un 100.


Opengraph? Fet.


Targeta de Twitter? Fet.


Marcat d'esquema? També fet.


Què més! Aleshores, permeteu-me afegir algunes paraules clau més.


Encara igual.


Ah, sí, m'he d'haver perdut les descripcions "alt" per a les imatges.


No, jo també l'he afegit. Dang, que estúpid puc ser? El mateix informe Lighthouse en mostra els detalls.


El problema és el fitxer robots.txt. Els llocs web codedoodles.xyz i chenuli.codedoodles.xyz utilitzen la mateixa estructura, així que hauria de poder fer alguns treballs de copiar i enganxar. De nou.


Igual que els bons vells temps.


Sí! Ara són 100.



I això hauria de ser. Dissenyar marxandatge no té res a veure amb els chatbots d'IA i vaig sobreviure a la feina. És hora d'anar a llegir un llibre, gran desenvolupador!

Resumint


La meva suposició de ser un desenvolupador estúpid i indefens sense IA era falsa, i n'estic content. Tot i que el meu pensament crític podria haver-se vist afectat (he comès alguns errors estúpids), encara puc fer les coses. Tot el procés va trigar més de l'habitual, sobretot escriure aquest guió de raspat, però va semblar més gratificant. Com trobar la teva bicicleta antiga al garatge i adonar-te que no has oblidat com conduir-la.


I, per descomptat, vaig obrir ChatGPT involuntàriament unes quantes vegades, i sí, buscar a Google i copiar/enganxar em vaig sentir una mica culpable. Però bé, així és com vam codificar abans del 2022, oi? Stack Overflow i la documentació eren els nostres millors amics, i encara funcionen perfectament.


La conclusió principal és que utilitzar eines d'IA és totalment correcte i comprensible. Però de tant en tant, fes el que acabo de fer: bloqueja aquests LLM i intenta fer la feina tu mateix. Et sentiràs genial, creu-me.


I si us plau, no siguis com aquest noi a Reddit. Utilitza el teu cervell.