wordle api upload
This commit is contained in:
commit
3bfec456bf
|
@ -0,0 +1,175 @@
|
||||||
|
# Based on https://raw.githubusercontent.com/github/gitignore/main/Node.gitignore
|
||||||
|
|
||||||
|
# Logs
|
||||||
|
|
||||||
|
logs
|
||||||
|
_.log
|
||||||
|
npm-debug.log_
|
||||||
|
yarn-debug.log*
|
||||||
|
yarn-error.log*
|
||||||
|
lerna-debug.log*
|
||||||
|
.pnpm-debug.log*
|
||||||
|
|
||||||
|
# Caches
|
||||||
|
|
||||||
|
.cache
|
||||||
|
|
||||||
|
# Diagnostic reports (https://nodejs.org/api/report.html)
|
||||||
|
|
||||||
|
report.[0-9]_.[0-9]_.[0-9]_.[0-9]_.json
|
||||||
|
|
||||||
|
# Runtime data
|
||||||
|
|
||||||
|
pids
|
||||||
|
_.pid
|
||||||
|
_.seed
|
||||||
|
*.pid.lock
|
||||||
|
|
||||||
|
# Directory for instrumented libs generated by jscoverage/JSCover
|
||||||
|
|
||||||
|
lib-cov
|
||||||
|
|
||||||
|
# Coverage directory used by tools like istanbul
|
||||||
|
|
||||||
|
coverage
|
||||||
|
*.lcov
|
||||||
|
|
||||||
|
# nyc test coverage
|
||||||
|
|
||||||
|
.nyc_output
|
||||||
|
|
||||||
|
# Grunt intermediate storage (https://gruntjs.com/creating-plugins#storing-task-files)
|
||||||
|
|
||||||
|
.grunt
|
||||||
|
|
||||||
|
# Bower dependency directory (https://bower.io/)
|
||||||
|
|
||||||
|
bower_components
|
||||||
|
|
||||||
|
# node-waf configuration
|
||||||
|
|
||||||
|
.lock-wscript
|
||||||
|
|
||||||
|
# Compiled binary addons (https://nodejs.org/api/addons.html)
|
||||||
|
|
||||||
|
build/Release
|
||||||
|
|
||||||
|
# Dependency directories
|
||||||
|
|
||||||
|
node_modules/
|
||||||
|
jspm_packages/
|
||||||
|
|
||||||
|
# Snowpack dependency directory (https://snowpack.dev/)
|
||||||
|
|
||||||
|
web_modules/
|
||||||
|
|
||||||
|
# TypeScript cache
|
||||||
|
|
||||||
|
*.tsbuildinfo
|
||||||
|
|
||||||
|
# Optional npm cache directory
|
||||||
|
|
||||||
|
.npm
|
||||||
|
|
||||||
|
# Optional eslint cache
|
||||||
|
|
||||||
|
.eslintcache
|
||||||
|
|
||||||
|
# Optional stylelint cache
|
||||||
|
|
||||||
|
.stylelintcache
|
||||||
|
|
||||||
|
# Microbundle cache
|
||||||
|
|
||||||
|
.rpt2_cache/
|
||||||
|
.rts2_cache_cjs/
|
||||||
|
.rts2_cache_es/
|
||||||
|
.rts2_cache_umd/
|
||||||
|
|
||||||
|
# Optional REPL history
|
||||||
|
|
||||||
|
.node_repl_history
|
||||||
|
|
||||||
|
# Output of 'npm pack'
|
||||||
|
|
||||||
|
*.tgz
|
||||||
|
|
||||||
|
# Yarn Integrity file
|
||||||
|
|
||||||
|
.yarn-integrity
|
||||||
|
|
||||||
|
# dotenv environment variable files
|
||||||
|
|
||||||
|
.env
|
||||||
|
.env.development.local
|
||||||
|
.env.test.local
|
||||||
|
.env.production.local
|
||||||
|
.env.local
|
||||||
|
|
||||||
|
# parcel-bundler cache (https://parceljs.org/)
|
||||||
|
|
||||||
|
.parcel-cache
|
||||||
|
|
||||||
|
# Next.js build output
|
||||||
|
|
||||||
|
.next
|
||||||
|
out
|
||||||
|
|
||||||
|
# Nuxt.js build / generate output
|
||||||
|
|
||||||
|
.nuxt
|
||||||
|
dist
|
||||||
|
|
||||||
|
# Gatsby files
|
||||||
|
|
||||||
|
# Comment in the public line in if your project uses Gatsby and not Next.js
|
||||||
|
|
||||||
|
# https://nextjs.org/blog/next-9-1#public-directory-support
|
||||||
|
|
||||||
|
# public
|
||||||
|
|
||||||
|
# vuepress build output
|
||||||
|
|
||||||
|
.vuepress/dist
|
||||||
|
|
||||||
|
# vuepress v2.x temp and cache directory
|
||||||
|
|
||||||
|
.temp
|
||||||
|
|
||||||
|
# Docusaurus cache and generated files
|
||||||
|
|
||||||
|
.docusaurus
|
||||||
|
|
||||||
|
# Serverless directories
|
||||||
|
|
||||||
|
.serverless/
|
||||||
|
|
||||||
|
# FuseBox cache
|
||||||
|
|
||||||
|
.fusebox/
|
||||||
|
|
||||||
|
# DynamoDB Local files
|
||||||
|
|
||||||
|
.dynamodb/
|
||||||
|
|
||||||
|
# TernJS port file
|
||||||
|
|
||||||
|
.tern-port
|
||||||
|
|
||||||
|
# Stores VSCode versions used for testing VSCode extensions
|
||||||
|
|
||||||
|
.vscode-test
|
||||||
|
|
||||||
|
# yarn v2
|
||||||
|
|
||||||
|
.yarn/cache
|
||||||
|
.yarn/unplugged
|
||||||
|
.yarn/build-state.yml
|
||||||
|
.yarn/install-state.gz
|
||||||
|
.pnp.*
|
||||||
|
|
||||||
|
# IntelliJ based IDEs
|
||||||
|
.idea
|
||||||
|
|
||||||
|
# Finder (MacOS) folder config
|
||||||
|
.DS_Store
|
|
@ -0,0 +1,15 @@
|
||||||
|
# wordle-api
|
||||||
|
|
||||||
|
To install dependencies:
|
||||||
|
|
||||||
|
```bash
|
||||||
|
bun install
|
||||||
|
```
|
||||||
|
|
||||||
|
To run:
|
||||||
|
|
||||||
|
```bash
|
||||||
|
bun run index.ts
|
||||||
|
```
|
||||||
|
|
||||||
|
This project was created using `bun init` in bun v1.0.15. [Bun](https://bun.sh) is a fast all-in-one JavaScript runtime.
|
|
@ -0,0 +1,18 @@
|
||||||
|
{
|
||||||
|
"name": "wordle-api",
|
||||||
|
"module": "index.ts",
|
||||||
|
"type": "module",
|
||||||
|
"scripts": {
|
||||||
|
"gen": "cd scripts && python extract.py"
|
||||||
|
},
|
||||||
|
"devDependencies": {
|
||||||
|
"bun-types": "latest"
|
||||||
|
},
|
||||||
|
"peerDependencies": {
|
||||||
|
"typescript": "^5.0.0"
|
||||||
|
},
|
||||||
|
"dependencies": {
|
||||||
|
"hono": "^3.11.6",
|
||||||
|
"ioredis": "^5.3.2"
|
||||||
|
}
|
||||||
|
}
|
|
@ -0,0 +1,2 @@
|
||||||
|
wordbank/*.txt
|
||||||
|
output/*.txt
|
|
@ -0,0 +1,24 @@
|
||||||
|
import re
|
||||||
|
import os
|
||||||
|
|
||||||
|
def process_text(input_filename, output_filename):
|
||||||
|
with open(input_filename, 'r') as input_file:
|
||||||
|
content = input_file.read()
|
||||||
|
|
||||||
|
# Use regular expression to extract words containing only alphabets
|
||||||
|
words = re.findall(r'\b[a-zA-Z]+\b', content)
|
||||||
|
|
||||||
|
# Filter words with length 6
|
||||||
|
five_letter_words = list(set([word.lower() for word in words if len(word) == 5]))
|
||||||
|
|
||||||
|
with open(output_filename, 'w') as output_file:
|
||||||
|
# Write each 6-letter word on a new line in the output file
|
||||||
|
output_file.write('\n'.join(five_letter_words))
|
||||||
|
|
||||||
|
if __name__ == '__main__':
|
||||||
|
# Read wordbank directory, and process each file and write to same filename.txt, ignoring .gitkeep file
|
||||||
|
print('Processing...')
|
||||||
|
for filename in os.listdir('wordbank'):
|
||||||
|
if filename != '.gitkeep':
|
||||||
|
process_text('wordbank/' + filename, 'output/' + filename)
|
||||||
|
print('Done!')
|
|
@ -0,0 +1,73 @@
|
||||||
|
import { Context, Hono } from 'hono';
|
||||||
|
import { cors } from 'hono/cors';
|
||||||
|
import { logger } from 'hono/logger';
|
||||||
|
import Redis from 'ioredis';
|
||||||
|
|
||||||
|
const app = new Hono();
|
||||||
|
const client = new Redis(process.env.REDIS_URI as string);
|
||||||
|
|
||||||
|
app.use("*", cors());
|
||||||
|
app.use("*", logger());
|
||||||
|
|
||||||
|
app.get("/", async (ctx: Context) => {
|
||||||
|
return ctx.text("Wordle API");
|
||||||
|
});
|
||||||
|
|
||||||
|
app.patch("/gen", async (ctx: Context) => {
|
||||||
|
const { key } = ctx.req.query();
|
||||||
|
if(key !== process.env.SECRET_KEY) {
|
||||||
|
return ctx.json({
|
||||||
|
message: 'Invalid key',
|
||||||
|
}, 401);
|
||||||
|
}
|
||||||
|
let wordForToday = await client.randomkey();
|
||||||
|
if(wordForToday == 'today') {
|
||||||
|
wordForToday = await client.randomkey();
|
||||||
|
}
|
||||||
|
await client.set('today', wordForToday as string);
|
||||||
|
// await client.del(wordForToday as string);
|
||||||
|
return ctx.json({
|
||||||
|
today: wordForToday,
|
||||||
|
});
|
||||||
|
})
|
||||||
|
|
||||||
|
app.post("/check", async (ctx: Context) => {
|
||||||
|
const { word } = await ctx.req.json();
|
||||||
|
if(!word) {
|
||||||
|
return ctx.json({
|
||||||
|
message: 'Missing word',
|
||||||
|
}, 400);
|
||||||
|
}
|
||||||
|
|
||||||
|
const input = word.split('')
|
||||||
|
const today = await client.get('today') as string;
|
||||||
|
const todayWord = today.split('');
|
||||||
|
let response: any = [];
|
||||||
|
|
||||||
|
for (let i = 0; i < input.length; i++) {
|
||||||
|
const letter = input[i];
|
||||||
|
let isCorrect = false;
|
||||||
|
if(todayWord[i] === input[i]) {
|
||||||
|
isCorrect = true;
|
||||||
|
}
|
||||||
|
let isLetterInWord = false;
|
||||||
|
for (const l of todayWord) {
|
||||||
|
if(l === letter) {
|
||||||
|
isLetterInWord = true;
|
||||||
|
break;
|
||||||
|
}
|
||||||
|
}
|
||||||
|
response.push({
|
||||||
|
letter,
|
||||||
|
isCorrectPos: isCorrect,
|
||||||
|
isLetterInWord,
|
||||||
|
});
|
||||||
|
}
|
||||||
|
|
||||||
|
return ctx.json(response);
|
||||||
|
});
|
||||||
|
|
||||||
|
export default {
|
||||||
|
port: 3000,
|
||||||
|
fetch: app.fetch,
|
||||||
|
} as any;
|
|
@ -0,0 +1,22 @@
|
||||||
|
{
|
||||||
|
"compilerOptions": {
|
||||||
|
"lib": ["ESNext"],
|
||||||
|
"module": "esnext",
|
||||||
|
"target": "esnext",
|
||||||
|
"moduleResolution": "bundler",
|
||||||
|
"moduleDetection": "force",
|
||||||
|
"allowImportingTsExtensions": true,
|
||||||
|
"noEmit": true,
|
||||||
|
"composite": true,
|
||||||
|
"strict": true,
|
||||||
|
"downlevelIteration": true,
|
||||||
|
"skipLibCheck": true,
|
||||||
|
"jsx": "react-jsx",
|
||||||
|
"allowSyntheticDefaultImports": true,
|
||||||
|
"forceConsistentCasingInFileNames": true,
|
||||||
|
"allowJs": true,
|
||||||
|
"types": [
|
||||||
|
"bun-types" // add Bun global
|
||||||
|
]
|
||||||
|
}
|
||||||
|
}
|
|
@ -0,0 +1,28 @@
|
||||||
|
import fs from 'fs';
|
||||||
|
import Redis from "ioredis"
|
||||||
|
|
||||||
|
const client = new Redis(process.env.REDIS_URI as string);
|
||||||
|
|
||||||
|
const getFilesForUpload = () => {
|
||||||
|
const files = fs.readdirSync('scripts/output');
|
||||||
|
return files;
|
||||||
|
}
|
||||||
|
|
||||||
|
const extractWords = async () => {
|
||||||
|
console.log('Uploading words to redis collection ...');
|
||||||
|
const files = getFilesForUpload();
|
||||||
|
const wordList: string[] = [];
|
||||||
|
for (const file of files) {
|
||||||
|
if(file === '.gitkeep') continue;
|
||||||
|
const fileData = fs.readFileSync(`scripts/output/${file}`, 'utf-8');
|
||||||
|
const words = fileData.split('\n');
|
||||||
|
wordList.push(...words);
|
||||||
|
}
|
||||||
|
for (const word of wordList) {
|
||||||
|
await client.set(word, 0);
|
||||||
|
}
|
||||||
|
console.log('Done');
|
||||||
|
process.exit(0);
|
||||||
|
}
|
||||||
|
|
||||||
|
await extractWords();
|
Loading…
Reference in New Issue